Descargar todo - Ciencias de la Ingeniería UTE
Transcripción
Descargar todo - Ciencias de la Ingeniería UTE
Enfoque UTE es una revista de carácter técnico-científico, que publica artículos sobre trabajos de investigación científica y tecnológica, revisión del estado del arte en un área específica del conocimiento y trabajos de vinculación con la comunidad en los cuales se realizaron actividades de investigación científica. La revista abarca las áreas temáticas de las ingenierías Ambiental, de Alimentos, Automotriz, Industrial, Informática, Mecatrónica, y de Petróleos. Enfoque UTE está dirigida a la comunidad de docentes, investigadores, y estudiantes universitarios, de pregrado y posgrado en general. Enfoque UTE Volumen 6 – Número 3 Septiembre – 2015 e-ISSN: 1390-6542 (electrónico) / p-ISSN: 1390-9363 (impreso) Copyright © 2010 - 2015 Facultad de Ciencias de la Ingeniería Universidad Tecnológica Equinoccial http://ingenieria.ute.edu.ec/enfoqueute/ Teléfono: +593-(2)-2990-800 ext.2232 Dirección: Av. Mariscal Sucre (Occidental) y Mariana de Jesús, s/n. Quito-Ecuador Comité Editorial Director Jorge Viteri Moya, Universidad Tecnológica Equinoccial, Ecuador Coordinador Comité Editorial Diego Ordóñez Camacho, Universidad Tecnológica Equinoccial, Ecuador Comité Editorial Juan Bravo Vásquez, Universidad Tecnológica Equinoccial, Ecuador Analía Concellón, Universidad Nacional de La Plata, Argentina Albert Ibarz, Universidad de Lleida, España Alberto Medina León, Universidad de Matanzas, Cuba Carlos Monsalve Arteaga, Escuela Politécnica del Litoral, Ecuador María Gabriela Pérez, Escuela Politécnica Nacional, Ecuador Jordi Saldo Periago, Universidad Autónoma de Barcelona, España Neus Sanjuan, Universidad Politécnica de Valencia, España Gabriela Vernaza Leoro, Universidad San Francisco de Quito, Ecuador Fabián Villavicencio Abril, Universidad de las Fuerzas Armadas, Ecuador Índices / Catálogos / Bases de datos DOAJ (Directory of Open Access Jou rnals) https://doaj.org/toc/1390-6542 OAJI (Open Academic Journals Index) http://oaji.net/journal-detail.html?number=1783 REDIB (Red Iberoamericana de Innovación y Conocimiento Científico) https://www.redib.org/recursos/Record/oai_revista1886-enfoque-ute Catálogo Latindex http://www.latindex.unam.mx/buscador/ficRev.html?folio=22038 Universia http://biblioteca.universia.net/html_bura/ficha/params/title/enfoque-ute/id/58440243.html Sherpa / Romeo http://www.sherpa.ac.uk/romeo/search.php?issn=1390-6542 GIF (Global Impact Factor) http://globalimpactfactor.com/enfoque-ute/ CiteFactor http://www.citefactor.org/journal/index/10856 OALib http://mailer.oalib.net/journal/5934 WorldCat http://www.worldcat.org/title/enfoque-ute-revista-cientifica/oclc/856580285 Electronic Journals Library https://opac.giga-hamburg.de/ezb/detail.phtml?bibid=GIGA&lang=en&jour_id=205084 Academic Journals Database http://journaldatabase.info/journal/issn1390-6542 Scientific Indexing Services http://www.sindexs.org/JournalList.aspx?ID=1491 ResearchBib – Academic Resource Index http://journalseeker.researchbib.com/view/issn/1390-6542 DRJI (Directory of Research Journals Indexing) http://drji.org/JournalProfile.aspx?jid=1390-6542 Journal TOCs http://www.journaltocs.ac.uk/index.php?action=browse&subAction=pub&publisherID=2651&journ alID=28767 Google Scholar http://scholar.google.com/scholar?q=Enfoque+UTE Contenido Integración de herramientas para el control de gestión. Análisis de un caso de estudio ............... pp. 1 - 19 Raúl Comas Rodríguez, Dianelys Nogueira Rivera, Félix Romero Bartutis, Marisdany Lumpuy Rodríguez Sistema automatizado para la predicción de flujo de carga en subestaciones eléctricas mediante redes neuronales artificiales .............................................................................................................. pp. 20 - 35 Arlys Michel Lastre Aleaga, Erik Fernando Méndez Garcés, Alexis Cordovés García Windows Server 2012 vulnerabilities and security..................................................................... pp. 36 - 51 Gabriel R. López, Danny S. Guamán, Julio C. Caiza Aplicación de quitosano como biocoagulante en aguas residuales contaminadas con hidrocarburos...…. ................................................................................................................................................ pp. 52 - 64 Juan M. Álava Dosificación mínima del reactivo Fenton para la remediación de agua contaminada con colorantes……… ................................................................................................................................................ pp. 65 - 80 Gina Terán, Paola Posligua, Carlos Banchón Diseño de un incinerador de lecho fluidizado para procesar desechos sólidos orgánicos ............ pp. 81 - 95 Salvatore La Verde Spano, Leonardo Taylhardat Composición y diversidad de especies arbóreas en transectos de localidades del bosque siempreverde de tierras bajas del Ecuador ........................................................................................................ pp. 96 - 105 Jorge Caranqui A. Real-Time embedded control system for a portable meteorological station ........................... pp. 106 - 114 Marcelo Moya , Gonzalo Guerrón , Andrés Montero Indicadores de contaminación visual y sus efectos en la población ........................................ pp. 115 - 132 Valeria Fuentes Correa, Anita Argüello Mejía Prefacio El Comité Editorial de Enfoque UTE se complace en dar la bienvenida entre sus miembros a los doctores: Carlos Monsalve Arteaga, de la Escuela Politécnica del Litoral, Ecuador; María Gabriela Pérez, de la Escuela Politécnica Nacional, Ecuador; y Jordi Saldo Periago, de la Universidad Autónoma de Barcelona, España. Confiamos en que con su valioso aporte superaremos nuestros actuales estándares de calidad y brindaremos un mejor aporte a la comunidad científica. La presente edición de nuestra revista mantiene su compromiso con la investigación tecnológica y de ingeniería, presentando 9 artículos cuyas variadas temáticas interesarán a un amplio rango de nuestros lectores. Iniciamos con el diseño y la implementación de un procedimiento para la mejora de la gestión empresarial. Luego se propone un sistema de predicción de flujo de carga en estaciones eléctricas, y a continuación se analizan las vulnerabilidades de Windows Server 2012. El cuarto artículo presenta el uso del quitosano para clarificar aguas contaminadas con hidrocarburos, e inmediatamente se analiza el uso de Fenton para purificar aguas de desecho textil. El siguiente artículo propone un diseño para incineradores de desechos orgánicos con la tecnología de lecho fluidizado, y enseguida se muestra un estudio de la diversidad de especies arbóreas en el bosque siempreverde ecuatoriano. En octavo lugar se presenta un sistema de control para una estación meteorológica portátil, y finalmente se estudia el problema de la contaminación visual en áreas urbanas. Este Comité agradece de manera especial a todos los colaboradores de la revista el trabajo profesional y oportuno realizado. Comité Editorial Quito, septiembre 2015. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/06/18 Aceptado (Accepted): 2015/09/14 CC BY-NC-ND 3.0 Integración de herramientas para el control de gestión. Análisis de un caso de estudio (Integration of management control tools. Analysis of a case study) Raúl Comas Rodríguez1, Dianelys Nogueira Rivera2, Félix Romero Bartutis3, Marisdany Lumpuy Rodríguez3 Resumen: El objetivo del artículo es diseñar e implementar un procedimiento que integre herramientas de control de gestión con enfoque de procesos, que contribuya a mejorar la eficiencia y la eficacia de la gestión empresarial. Se lleva a cabo un estudio experimental donde se define un procedimiento, basado en un cuadro de mando integral, que integra la gestión por procesos desde la planeación estratégica y su evaluación. Como resultados del trabajo se definen los factores clave de éxito de la empresa asociados a las cuatro perspectivas del cuadro de mando integral las cuales se enlazan a través de relaciones causa-efecto y se obtiene el mapa estratégico que permite visualizar y comunicar la estrategia de la empresa. Los indicadores para medir la actuación de los factores claves de éxito se integran con los procesos y se evalúan con la asistencia de un software. Con la implementación del procedimiento en una empresa comercializadora, se integró la definición de los procesos desde la propia planificación estratégica, se evaluó su alineamiento, y los indicadores de eficiencia y eficacia evaluados mejoraron su desempeño. Palabras clave: estrategia, control de gestión, cuadro de mando integral, procesos, alineamiento estratégico Abstract: The objective of this article is to design and to implement a procedure that integrates management control tools focusing on process, to improve the efficiency and the efficacy. It was carried out an experimental study where is defined a procedure, based in the Balanced Scorecard, which integrates the process management into the strategic planning and their evaluation. As results of this work, we define the key factors of success associated with the four perspectives of the Balanced Scorecard that are linked through the cause-effect relations obtaining the strategic map that allows visualizing and communicating the enterprise strategy. The indicators evaluate the key factor of success, integrating the process with the assistance of a software. The implementation of the procedure in a commercialization enterprise contributed to integrate the process definition into the strategic planning. The alignment was evaluated and the efficiency and efficacy indicators improved the company´s performance. Keywords: strategy, management control, balanced scorecard, process, strategic alignment 1 Universidad Técnica de Ambato, Ambato – Ecuador ( [email protected] ) Universidad de Matanzas, Matanzas – Cuba ( [email protected] ) 3 Universidad de Sancti Spíritus, Sancti Spíritus – Cuba ( {felixr, mlumpuy} @uniss.edu.cu ) 2 2 1. Introducción El sistema económico, político y social del mundo es complejo, y para las organizaciones es un reto dar respuesta a sus necesidades en tiempos turbulentos (Boada Grau & Gil Ripoll, 2009; Del Canto, 2011). En la actualidad, las organizaciones, motivadas por los cambios socioeconómicos, reclaman la incorporación de nuevos métodos que les permitan gestionar esfuerzos, recursos, capacidades y adecuarse a las exigencias del entorno para ganar eficiencia y eficacia en sus procesos (Paladino & Williams, 2008; Shpilberg, Berez, Puryear, & Shah, 2007). La dirección estratégica es la forma más aplicada de gestionar las organizaciones, por su carácter abarcador, que integra en un solo pensamiento estratégico todos los sistemas. En el momento de desplegar la estrategia diseñada o gestionar sus procesos, las organizaciones suelen fracasar porque carecen de un sistema de gestión capaz de integrar y alinear ambos elementos. (Agudelo Tobón & Escobar Bolívar, 2010; Amo Baraybar, 2010; Borchardt, Alfonso Sellito, & Medeiros Pereira, 2007; Kaplan & Norton, 2008) Por tanto, a fin de contribuir en las investigaciones sobre el tema, el propósito de este trabajo es desarrollar un procedimiento que integre herramientas del control de gestión con enfoque de procesos, apoyado en un sistema de información que contribuya a evaluar la eficiencia y la eficacia en el sistema empresarial. Se plantea como hipótesis de la investigación: el desarrollo de un procedimiento que permita integrar herramientas de control de gestión con enfoque de procesos contribuye a evaluar la eficiencia y eficacia en el sistema empresarial. Para la aplicación del procedimiento se toma como caso de estudio principal una empresa comercializadora donde la aplicación del procedimiento propuesto demuestra la factibilidad de su aplicación y sus resultados contribuyen a la mejora de la misma. 2. Metodología Para la aplicación del procedimiento que integra herramientas de control de gestión con un enfoque de procesos se deben cumplir previamente con los siguientes requisitos: 1. Apreciar en la organización la necesidad del cambio y el compromiso con la aplicación de los resultados. 2. Que exista la formación del personal implicado en las transformaciones culturales a desarrollar. 3. La dirección estratégica como filosofía asumida por la alta dirección. 4. Un clima organizacional que contribuya al trabajo en equipo, un ambiente de aprendizaje permanente y acceso a la información. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 3 PROCEDIMIENTO GENERAL PARA EL CONTROL DE GESTIÓN ETAPA I: DISEÑO O REDISEÑO DE LA ESTRATEGIA INICIO 1.1 Diagnóstico estratégico 1.2 Fijar el rumbo estratégico No 1.3 Definir ARC, objetivos estratégicos y criterios de medidas 1.4 Definición de los procesos 1.5 Verificar alineamiento estratégico entre los procesos y la estrategia ¿Responde al alineamiento? Si ETAPA 3: IMPLANTACIÓN DEL SISTEMA DE CONTROL ETAPA 2: DESPLIEGUE DEL SISTEMA DE CONTROL 1.6 Definir factores claves del éxito 1.7 Definición de las perspectivas 1.8 Confección del mapa estratégico 2.1 Selección de los indicadores 2.2 Confección del manual de indicadores 3.1 Proponer el sistema de información 3.2 Implantación del sistema de información 3.3 Comunicación y capacitación 3.4 Análisis de las desviaciones y acciones preventivas/correctivas Fin Figura 1. Procedimiento para el control de gestión. En la Figura 1 se muestra el procedimiento propuesto que consta de tres etapas que incluyen: el diagnóstico organizacional, la definición o redefinición de la estrategia empresarial y la definición de los procesos, el despliegue del cuadro de mando integral (CMI), y su implementación y control. Etapa I. Diseño o rediseño de la estrategia Como primer paso para la definición de cualquier estrategia de negocio es importante y necesario un diagnóstico estratégico de la organización. Para la realización del diagnóstico se obtiene el compromiso real de la dirección porque todo proyecto de esta envergadura, sin un verdadero liderazgo de los directivos y su apoyo, resulta infructuoso. Se conforma un equipo de trabajo para ampliar la base de deliberaciones y consenso, compuesto entre seis y doce personas, encargados de la definición del diagnóstico. Para obtener los resultados del diagnóstico estratégico se propone un análisis DAFO. A partir de los resultados de este diagnóstico, se fija el rumbo estratégico de la organización como punto de partida de la definición de la estrategia. Es necesario fijar el rumbo estratégico de la organización, con todas sus variables de salida: misión, visión, valores, estrategias, objetivos y Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 4 Figura 2. Procedimiento para la definición de los procesos. empresariales. políticas. Las áreas de resultados claves (ARC) son simplemente áreas o categorías esenciales para el rendimiento efectivo en la institución o empresa. Para cada ARC se deben definir los objetivos estratégicos que no son más que las declaraciones de las aspiraciones a alcanzar en el período determinado. Cada objetivo estratégico debe contar con sus criterios de medidas para evaluar su cumplimiento. Para determinar los procesos se implementa el procedimiento que se muestra en la Figura 2. Al aplicar el procedimiento se obtiene: El mapa que integra los procesos de la empresa, clasificados en: estratégicos, operativos y de apoyo y su interrelación. Un diagrama de cada proceso que muestra una explicación detallada de cada una de las actividades del proceso y quién lo hace. Una ficha para cada proceso, que representa un soporte informativo de las características relevantes para el control de todas las actividades: responsable, objetivos, descripción, recursos necesarios, documentación, procesos con los cuales se relaciona, principales riesgos e indicadores para evaluar su eficacia. Después de definidas las categorías básicas de la estrategia e identificados los procesos de la organización es necesario contrastarlas en busca de evaluar el alineamiento estratégico entre los procesos y los objetivos estratégicos. Una de las mayores debilidades en las estrategias actualmente es la falta de alineamiento entre las propuestas definidas a largo plazo (establecidas a través de los objetivos estratégicos) y su accionar, en el corto plazo, en los procesos que se ejecutan en la organización. Para evaluar la relación se realizan los siguientes pasos: Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 5 1. Crear matriz de impacto entre los procesos y los objetivos estratégicos. Se evalúa el impacto de los procesos en los objetivos estratégicos con la evaluación de 1 (bajo) a 10 (alto) puntos. 2. Calcular el peso relativo de los objetivos estratégicos y los procesos. Para el cálculo de los pesos relativos se puede utilizar el método de las jerarquías analíticas (AHP)4. 3. Calcular el índice de alineamiento de los objetivos estratégicos a través de la Ecuación 1. n Iao (OEk * ok ) (1) k 1 Dónde: Iao: índice de alineamiento de los objetivos estratégicos OEk : media de los impactos de los procesos en el objetivo estratégico k. ok : peso relativo del objetivo estratégico k. n: cantidad de objetivos estratégicos. 4. Calcular el índice de alineamiento de los procesos a través de la Ecuación 2. m Ipr ( PRk * pk ) (2) k 1 Dónde: Ipr: Índice de alineamiento de los procesos. PRk : media de los impactos del proceso k en los objetivos estratégicos. pk :peso relativo del proceso k m: cantidad de procesos 5. Evaluar la posición de los objetivos estratégicos y los procesos en la matriz de impacto procesos/objetivos estratégicos. (Figura 3). En caso de ubicarse en el cuadrante superior derecho existe alineamiento entre los objetivos estratégicos y los procesos. En caso de ubicarse en el cuadrante superior izquierdo los objetivos estratégicos de mayor peso no son impactado por los procesos. En caso del cuadrante inferior izquierdo indica que los procesos de mayor peso no impactan en los objetivos estratégicos. En el cuadrante inferior izquierdo es necesario el rediseño de la estrategia y los procesos porque no hay alineamiento. 4 El método de las jerarquías analíticas, propuesto por el matemático Thomas L. Saaty en 1980, es un método para abordar problemas que tienen un número finito de soluciones; formula el problema de decisión permitiendo organizar la información respecto al problema de decisión, y que dicha información sea descompuesta y analizada en su diferentes partes, para elegir la mejor alternativa o solución. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 6 Figura 3: Matriz de impacto procesos/objetivos estratégicos. Para finalizar la fase se definen los factores claves del éxito (FCE) que se identifican para concentrar los esfuerzos y recursos de la organización en ellos. Los FCE deben tener una correspondencia directa con los objetivos estratégicos definidos (Comas Rodríguez, 2013). Etapa II. Despliegue del sistema de control Definido el rumbo estratégico, se despliega el CMI como herramienta de control de gestión, mediante la cual se puede: medir y evaluar la gestión empresarial; tener una visión global de la organización, y apoyar el proceso de toma de decisiones, se conjugan los indicadores financieros y no financieros en diferentes perspectivas a través de las cuales es posible analizar la empresa en su conjunto. Kaplan y Norton propusieron en la confección del CMI la utilización de cuatro perspectivas: financiera, clientes, procesos internos, y aprendizaje y crecimiento. Se puede comenzar a trabajar en el montaje de las perspectivas desde estas cuatro propuestas pero, a partir de las interioridades de cada empresa, se puede definir nuevas acordes a sus características. Un mapa estratégico es una descripción integrada y lógica de la forma en que se llevará a cabo una estrategia, indica las relaciones causa-efecto relativa a los recursos y capacidades de la empresa que deben llevar a los resultados estratégicos deseados. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 7 Definir el mapa estratégico de una organización es una actividad compleja. El trabajo de establecer las relaciones causa efecto lleva tiempo y dedicación del equipo de trabajo seleccionado. En la literatura consultada (más de 700 artículos descargados de Internet, y otras referencias) no se dispone de un procedimiento o metodología que guíe como realizarlo. Se propone el procedimiento específico que se muestra en la Figura 4 para la elaboración de un mapa estratégico. Figura 4. Procedimiento específico para confeccionar el mapa estratégico. Para comenzar a confeccionar el mapa estratégico se asocian los objetivos estratégicos (OE) o factores claves de éxito a las perspectivas seleccionadas. Se crea una matriz donde por las filas y las columnas se insertan los OE o FCE ordenados por las cuatro perspectivas y se impacta cada uno con el resto en la búsqueda de las relaciones causales que existen entre ellos. En un lienzo se dibujan los OE o FCE y se relacionan a partir de las relaciones prestablecidas en la matriz. Al dibujarse la primera variante del mapa estratégico es posible visualizar aquellos nexos que resultan secundarios y se detectan los posibles errores existentes en la operacionalización de la estrategia definida. Después de depurar el mapa inicial se mejora la configuración del gráfico propuesto y queda establecido el mapa estratégico final de la organización. El CMI se fundamenta en la filosofía “…si no puedes medirlo, no puedes gestionarlo”. Claramente, algunas operaciones (beneficios, ventas, etcétera) son más fáciles de medir que otras (habilidades de los trabajadores, imagen, etcétera); sin embargo, no por ello debe ser excluidas del CMI, en todo caso puede quedar como “pendiente a desarrollar”, pues casi siempre existe un indicador, aunque no sea perfecto. En la presente investigación se propone la evaluación de los indicadores en el CMI en cuatro valores excelente (azul en el CMI), bien (verde), regular (amarillo) y mal (rojo) Un excelente CMI deberá poseer una variación adecuada de resultados (indicadores efectos) y de inductores de la actuación (indicadores causa) que se hayan adaptado a indicadores de la Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 8 estrategia de la unidad de negocio. Los indicadores del resultado sin los inductores de la actuación no comunican la forma en que conseguirán los resultados, ni proporcionan una indicación temprana de sí la estrategia se propone en práctica con éxito. Como resultado de esta etapa se obtienen los indicadores necesarios para medir la actuación de los factores clave en cada una de las cuatro perspectivas, con el fin de determinar el grado de consecución de los objetivos estratégicos. Por último, se confecciona un manual que sirva de consulta y herramienta de trabajo para los directivos y especialistas, el cual debe incluir la información de los indicadores a tener en cuenta: perspectiva, FCE, vínculo con procesos, vínculo con objetivos estratégicos, código del indicador, objetivo del indicador, forma de cálculo, unidad de medida, periodicidad, niveles de referencia, metas concebidas, mejoramiento histórico del indicador (para establecer tendencias), mejor valor logrado para dicho indicador, fecha de entrada al CMI, fecha de salida del CMI y responsable Etapa III. Implementación y control Después de definir el CMI, se trabaja en su implementación, la cual parte de la confección del sistema de información que sirva a la organización para el cumplimiento de los objetivos propuestos y el análisis de las desviaciones y acciones correctivas necesarias en su desempeño. Un sistema de información para ejecutivos5 permite presentar la información en forma rápida y sencilla y, usualmente, posee las características siguientes: Tienen los indicadores relevantes. Admiten la condensación de la información y su investigación. Hay señales de alarma (semáforos) que señalan los desvíos importantes y permiten el control por excepción. Posibilitan la visualización gráfica. Presentan información interna y externa. La conformación de los cuadros de mando de los directivos se debe conformar en cascada. Cada responsable de un indicador actualiza sus datos y con ellos se confecciona el cuadro de mando de cada unidad estratégica de negocios y cada gerencia funcional. De todos los indicadores seleccionados en la empresa, se escogen aquellos que son de interés de la alta dirección y con ellos se conforma su cuadro de mando. El CMI, aunque, normalmente, va dirigido a la dirección de la unidad de negocios donde se implemente, debe ser compartido con todos los trabajadores de la organización. En consecuencia, 5 Denominado en la literatura de habla inglesa Executive Information Systems (EIS). Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 9 su elaboración implica un esfuerzo de comunicación explícita e implícita adicional al normal, pues todas las etapas representan un proceso educativo muy valioso para todos los niveles. La función de control consiste en la medición del progreso y su comparación con el resultado esperado para que, en caso de que difieran, se tomen las acciones necesarias. Si existieran desviaciones con respecto a las metas establecidas para algún indicador, la dirección debe reunirse con los responsables de los indicadores y tomar las acciones pertinentes para el cumplimiento de los valores fijados. 3. Resultados La implementación del procedimiento se realizó en una organización comercializadora donde se aprovechó el ejercicio de planeación de la empresa para la actualización de la estrategia. Para el diagnóstico situacional de la organización se creó un equipo de trabajo, encabezado por los directivos de la empresa y en el cual participaron además funcionarios y trabajadores que representan las diferentes áreas de la organización.El objeto social de la organización es amplio y abarca diversas actividades del comercio y los servicios: Venta mayorista y minorista de mercancías y combustible Venta minorista de servicios gastronómicos Prestación de servicios de fotografía y recreación Prestación de servicios técnicos en actividades de tecnología, computación y clima. Prestación de servicios de instalación y mantenimiento a grupos electrógenos. Prestación de servicios de intermediación financiera. La empresa cuenta con nueve Unidades Estratégicas de Negocio y con ochenta y tres puntos venta con representación en todos los municipios de la provincia, y laboran 719 trabajadores. Para el análisis del entorno y la organización se aplicó una encuesta a una muestra aleatoria del personal para la selección de las oportunidades, amenazas, fortalezas y debilidades; mediante trabajo en equipo se reduce el listado y se obtuvieron los resultados siguientes: Oportunidades: 1. Incremento de la demanda por la diversificación de formas de gestión de la propiedad. 2. Incremento de las remesas familiares desde el exterior. 3. Ventas en la red minorista a través de tarjetas de créditos con descuento a colaboradores. 4. Cambios en la política bancaria dirigidos al otorgamiento de créditos a la población. 5. Incremento del marco importador que permite diversificar la oferta Amenazas: 1. La crisis económica mundial. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 10 2. Incremento de la competencia del mercado. 3. Inestabilidad en los suministros de los proveedores nacionales. 4. Carencia de fuerza constructora en la provincia. 5. Regulaciones que limitan la autonomía de la empresa. Fortalezas: 1. Capacidad financiera y solvencia económica 2. Desarrollo tecnológico y de infraestructura. 3. Empresa que de forma continua mejora sus procesos y sistemas de gestión. 4. Trabajadores competentes y con experiencia en el trabajo. 5. Credibilidad e imagen. Debilidades: 1. Insuficiente uso de los sistemas de estimulación que incide en la baja motivación 2. Incumplimiento con los planes de mantenimiento programados. 3. Insuficiencias en el uso de los sistemas de control y exigencia en las unidades. 4. Limitación en el desempeño de las funciones de los administradores. 5. Sistema de gestión ineficaz para asegurar el reaprovisionamiento oportuno de las mercancías en la red comercial. Con los datos anteriores se confeccionó la matriz DAFO de la Tabla 1. Fortalezas 1 2 3 4 5 Debilidades DAFO 1 2 3 4 5 Total Tabla 1. Matriz DAFO. Oportunidades Amenazas Total 1 2 3 4 5 1 2 3 4 5 21 3 2 2 2 3 3 3 1 1 1 21 3 3 3 2 1 2 2 2 2 1 21 3 3 3 3 3 1 2 1 1 1 18 3 3 2 2 1 1 3 1 1 1 16 2 2 3 2 1 1 1 1 2 1 60 37 16 3 3 3 1 1 1 1 1 1 1 14 2 2 1 1 1 1 1 1 3 1 17 3 2 3 2 2 1 1 1 1 1 17 2 2 3 2 3 1 1 1 1 1 24 3 3 3 3 3 3 2 2 1 1 `31 57 27 25 26 20 19 15 17 12 14 10 La organización se ubicó en el primer cuadrante, que es característico de las que asumen estrategias ofensivas con énfasis en la eficacia. El análisis DAFO mostró un mayor porcentaje en el primer cuadrante (80%) por lo que es posible aprovechar los cambios que se avecinan con la actualización del modelo económico, con el apoyo de la capacidad financiera y solvencia económica, el desarrollo tecnológico y de infraestructura, y la mejora continua de los procesos y el sistema de gestión. No obstante al análisis anterior se pudo evidenciar la necesidad de trabajar la Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 11 estrategia en función de atenuar las debilidades presentes que afectan el desempeño de la organización. Con los elementos declarados en la misión y la visión, y las prioridades en el momento actual se identificaron tres áreas de resultado clave: Gestión económica, Mejora continua y Cumplimiento de la responsabilidad social. Para cada una de las ARC se definieron los objetivos estratégicos con sus criterios de medidas los cuales establecen el vínculo de la misión definida con la visión a alcanzar. Definida la estrategia se aplicó el procedimiento para la definición de los procesos. En la Figura 5 se muestra el mapa de procesos desplegado. También se definieron los procesos a través de un diagrama de flujo y sus respectivas fichas. Figura 5. Mapa de procesos Para verificar el alineamiento estratégico entre los procesos y los objetivos estratégicos se creó la matriz de impacto entre ambos elementos; se calcularon: los pesos relativos a través del método AHP; el índice de alineamiento de los objetivos estratégicos (Tabla 2) y el índice de alineamiento de los procesos con un valor de 7.7631. Tabla 2. Cálculo del indicador de alineamiento de los objetivos estratégicos Objetivos estratégicos 1 2 3 4 5 6 Aumentar de manera sostenida las utilidades Avanzar en el perfeccionamiento de la gestión Mantener el AVAL del sistema de gestión de la calidad Alcanzar un uso más eficiente del Capital Humano Elevar los resultados en la comercialización Mejora de la infraestructura, el mantenimiento constructivo y tecnológico 7 Consolidar el sistema de Control Interno 8 Elevar la disciplina financiera Índice de alineamiento de los objetivos estratégicos 7.5556 7.4444 7.5556 6.6667 8.0000 Peso Relativo 0.20911 0.25083 0.16675 0.10729 0.08769 1.5799 1.8673 1.2598 0.7152 0.7014 8.3333 0.05139 0.4282 6.8889 5.6667 0.07129 0.05564 0.4911 0.3153 7.3586 Media Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 12 Para evaluar la posición se creó a matriz de impacto procesos/objetivos estratégicos de la Figura 6. Como resultado de la evaluación se pudo confirmar la existencia de alineamiento entre los objetivos y los procesos por encontrarse el punto de evaluación en el cuadrante superior derecho. Figura 6. Matriz de impacto procesos/objetivos estratégicos. A partir del criterio expuesto por los especialistas del equipo de trabajo se identificaron doce factores claves del éxito. El despliegue del sistema de control comenzó con el montaje de las perspectivas para el CMI. Para la implementación del CMI se trabajó con las cuatro perspectivas definidas por Kaplan y Norton: Financiera, Clientes, Procesos Internos, y Aprendizaje y Crecimiento. Para definir el mapa estratégico los FCE se reagruparon por perspectivas (Tabla 3) y se creó la matriz de relaciones causa-efecto de los posibles enlaces entre los FCE. Con los resultados de la matriz de impacto de las relaciones causa efecto se obtuvieron 29 posibles impactos entre los FCE. Se realizó el dibujo inicial de la propuesta del mapa estratégico y una revisión para eliminar los nexos secundarios de los impactos definidos desde su visualización. Como resultado final se obtuvo el mapa estratégico de la organización objeto de estudio (Figura 7). Para el despliegue del CMI se definieron los indicadores estratégicos que evaluan los FCE y que también tienen su impacto en los objetivos estratégicos y en los procesos. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 13 Tabla 3. FCE asociados a las perspectivas del CMI. Perspectivas Factores claves de éxito Incrementar la rentabilidad Financiera Incrementar ingresos Reducir costos y gastos Clientes Procesos Internos Elevar la satisfacción de los clientes Mejorar la calidad del servicio Mejorar el proceso de compra, almacenaje y distribución Incrementar la gestión de ventas Minimizar riesgos Elevar la productividad de los trabajadores Aprendizaje y Crecimiento Aplicar sistemas de pago por resultados Mejorar las competencias laborales Mantener y renovar la infraestructura constructiva y tecnológica Figura 7. Mapa estratégico Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 14 La Tabla 4 muestra el cuadro de mando de la Dirección General al cierre del primer trimestre, en el momento se reportaron deficiencias en la evaluación de cuatro indicadores: el nivel de satisfacción de los pedidos, el índice de ventas de mercancías por metros cuadrados, la correlación salario medio productividad y el cumplimiento del plan de mantenimientos a equipos tecnológicos. Otros seis indicadores se encuentran evaluados de regular. No. Tabla 4. Cuadro de mando de la Dirección General. INDICADORES ESTRATEGICOS UM PERSPECTIVA FINANCIERA 1 Razón de rentabilidad económica 2 Razón de rentabilidad financiera 3 Tasa de ganancia % 4 Índice de crecimiento de los ingresos totales % 5 Índice de gastos totales por peso de ingreso % Cierre 31/3/10 Plan Real Plan Real Plan Real Plan Real Plan Real 0.80 0.83 0.63 0.57 18.06 17.73 4.37 8.05 81.94 82.27 Plan Real Plan Real 4.05 3.92 1.00 1.00 Plan Real Plan Real Plan Real Plan Real Plan Real Plan Real 80.00 37.73 55.08 51.06 0.25 0.28 100.00 100.00 13.00 8.49 20.00 19.19 Plan Real Plan Real Plan Real Plan Real Plan Real Plan Real Plan Real Plan Real 1.03 1.01 95.0 95.2 2.00 0.64 90.00 100.00 90.00 98.91 0.91 0.83 90.00 75.23 100.00 95.23 PERSPECTIVA CLIENTES 6 Índice de satisfacción del cliente 7 Índice de desempeño de los procesos PERPECTIVA PROCESOS INTERNOS 8 Nivel de satisfacción de los pedidos % 9 Rotación de los inventarios de mercancías para la venta % 10 Índice de pérdidas por faltantes y mermas % 11 Hechos extraordinarios con participación de empleados % 12 Índice de ventas de mercancías x metro cuadrado CUC/m² 13 Índice del servicio de ventas de gastronomía x banqueta CUC/bq PERSPECTIVA DE APRENDIZAJE Y CRECIMIENTO 14 Relación salario medio productividad 15 Índice de satisfacción del cliente interno % 16 Tasa de fluctuación laboral % 17 Evaluación de las acciones de capacitación % 18 Evaluación del desempeño % 19 20 21 Índice del estado de la infraestructura constructiva y de equipos Cumplimiento del plan de mantenimiento de equipos tecnológicos Cumplimiento del presupuesto total de inversiones % % Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 15 Para la corrección de las desviaciones en los indicadores estratégicos se definió un plan de acción con un grupo de acciones correctivas que contribuyeron a mejorarlos. Por la dinámica del CMI se determinó dejar de evaluar tres indicadores evaluados de excelente y con un comportamiento estable entre el segundo y tercer trimestre del 2011: índice de desempeño de los procesos, hechos extraordinarios con la participación de empleados y la tasa de fluctuación laboral. El segundo trimestre del 2011, se incorporó al cuadro de mando el indicador de participación de productos nacionales en las ventas. El decrecimiento del indicador en el período, aunque sus cifras no son significativas y se mantuvo evaluado de bien, fue causado principalmente por una disminución en un 23% de los surtidos de proveedores locales. Un indicador que durante los dos años y medio de evaluación presentó dificultades es el nivel de satisfacción de los pedidos (Figura 8). Este indicador con el plan de acción definido y otras acciones de la gerencia comercial fue posible su incremento en un 21.65% en el período y pasó de una evaluación de mal a regular. Una de las acciones que más contribuyó a los resultados fue la realización de gestiones directas por los comerciales en las distribuidoras. Figura 8 Evaluación del indicador nivel de satisfacción de los pedidos . El indicador de nivel de satisfacción del cliente interno en los últimos seis meses del estudio mostró un decrecimiento de más de 6% (Figura 9). Esta situación fue provocada por: Los locales de trabajo en general carecen de condiciones para prestar servicios sin que funcionen los aparatos de clima en los horarios pico. Falta de los insumos necesarios para el aseo de los trabajadores y las unidades Ausencia de toldo u otra alternativa permite que se produzcan resplandores molestos en los puestos de trabajo y en algunos casos deteriora la mercancía Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 16 Rotura de luminarias en los locales de trabajo sin posibilidades de reponer Figura 9. Evaluación del indicador índice de satisfacción del cliente interno. Esta situación, determinó la necesidad de un plan de acciones correctivas para mejorar la satisfacción de los trabajadores en sus puestos de trabajo. De forma general los indicadores estratégicos mejoraron su evaluación y la organización mejoró su eficiencia y eficacia a través de la implementación de la estrategia trazada. De un total de 25 indicadores iniciales, 12 pasaron a una evaluación de excelente de cinco iniciales (tres de estos indicadores se dejaron de evaluar en el intervalo de tiempo); en total los evaluados de bien y excelente finalmente son 20 y disminuyeron en dos los evaluados de mal por lo que sus resultados son favorables (Figura 10). El análisis del comportamiento de los indicadores de eficiencia y eficacia para evaluar el desempeño de los FCE que integraron el CMI permiten concluir que la implementación del procedimiento impacta positivamente en la gestión empresarial y resultó una herramienta eficaz para mantener la atención sobre la actuación de aquellos, que afectaba el cumplimiento de los objetivos estratégicos de la empresa. Figura 10. Análisis de los indicadores evaluados. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 17 Adicionalmente al presente caso de estudio, existen más de 15 aplicaciones que validan la pertinencia de los procedimientos establecidos desglosada en: tres empresas comercializadoras, un grupo empresarial de la construcción compuesto por ocho empresas y tres empresas constructoras, dos empresas de la industria alimentaria, dos empresas de servicio, un grupo hotelero y una universidad. La aplicación del procedimiento en empresas de tanta diversidad está dado también por su carácter flexible que le permite adecuarse a diversos entornos. 3. Discusión En el marco del control de gestión se han realizado un conjunto de investigaciones, desde la década del 90 del siglo pasado, en diferentes sectores de la economía, que brindan un grupo de aportes importantes en la ciencia (Espino Valdés, Sánchez Sánchez, & Aguilera Martínez, 2013; Martínez & López, 2011; Nogueira Rivera, 2002; Porporato & García, 2011; Sánchez Silva, 2007). En este sentido, dentro de las herramientas del control de gestión, el CMI ha sido empleado con fuerza en los últimos 25 años en diferentes sectores y ramas de la economía. De hecho, en los últimos años se presentan muchas aplicaciones en el sector de los servicios, tales como: la salud pública (Naranjo Gil, 2010; Villalbí, 2007); los servicios universitarios (Moreno Freites, Eduardo Caballero, & Bastidas, 2010); en empresas de software (González González & Bermúdez Rodríguez, 2011). Las principales aportaciones del CMI, como herramienta de gestión son: centrarse en el control de los objetivos estratégicos de la organización, establecer una relación causa – efecto entre los indicadores de control seleccionados y el realizar el control a un número reducido de indicadores en tiempo real. Desde su propia concepción el CMI se encuentra asociado a los procesos de planificación estratégica, sin embargo resultan escasos los intentos por asociar la gestión por procesos durante el proceso de planificación y generalmente es usado como herramienta de mejora (Medina León, Nogueira Rivera, Hernández Nariño, & Viteri, 2010). En la presente investigación se demuestra lo importante y factible de la incorporación de la filosofía de procesos a la planificación estratégica. La determinación de los procesos, su clasificación y formalización, de conjunto con la planificación estratégica; así como, la evaluación del alineamiento estratégico entre ambos y el uso del cuadro de mando integral permiten simplificar el camino y llevar al logro de la eficacia en las organizaciones. 4. Conclusiones y Recomendaciones Con el propósito de analizar la situación del control de gestión en las organizaciones, y a partir de los resultados alcanzados, se puede concluir que existe la necesidad de trabajar en función de integrar las herramientas de control de gestión en las organizaciones. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 18 En la propuesta metodológica definida, como elemento novedoso, se integra la definición de los procesos desde la propia planificación estratégica, así como el diseño de la matriz de impacto de los procesos/objetivos estratégicos en función de la evaluación del alineamiento de los mismos. Se incluye además un procedimiento que facilita la definición de los mapas estratégicos en las organizaciones. En la empresa comercializadora, establecida como caso de estudio durante el período investigado, a partir del despliegue de la estrategia y la realización de acciones correctivas durante su ejecución, se logra disminuir en uno los indicadores evaluados de mal e incrementar los evaluados de excelente en cuarto, logrando mejoras en su gestión. La implementación del procedimiento propuesto, con su instrumental metodológico se logró en un grupo de organizaciones y los resultados alcanzados reflejan un perfeccionamiento en la gestión organizacional al mejorar sus indicadores de eficiencia y eficacia. Bibliografía Agudelo Tobón, L. F., & Escobar Bolívar, J. (2010). Gestión por procesos. Medellín: ICONTEC. Amo Baraybar, F. (2010). El cuadro de mando integral (The balanced scorecard). Barcelona: ESIC Editorial. Boada Grau, J., & Gil Ripoll, C. (2009). Gestión estratégica de recursos humanos como antecedente del balanced scorecard. Revista de Psicología del Trabajo y de las Organizaciones, 25(2). Borchardt, M., Alfonso Sellito, M., & Medeiros Pereira, G. (2007). Instrumento de avaliação para melhorias em processos organizacionais: caso do transporte coletivo rodoviário urbano de Porto Alegre. Produção, 17(2), 302-316. Comas Rodríguez, R. (2013). Integración de herramientas de control de gestión para el alineamiento estratégico en el sistema empresarial cubano. Aplicación en empresas de Sancti Spiritus. (Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas), Universidad de Matanzas Camilo Cienfuegos, Matanzas Del Canto, E. (2011). Gerencia estratégica y capital humano. Su prospectiva en los gobiernos locales en el contexto venezolano. Revista Ciencias Estratégicas., 19(26), 171-184. Espino Valdés, A., Sánchez Sánchez, R., & Aguilera Martínez, A. (2013). Procedimiento para el control de gestión en la Empresa de Campismo Popular de Villa Clara. Ingeniería Industrial, XXXIV(2), 227-236. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 19 González González, P., & Bermúdez Rodríguez, T. (2011). Gerenciando intangibles en empresas de software aplicando el proceso de análisis por jerarquías y el cuadro de mando integral. Rev fac cienc econ, XIX(2), 89-104. Kaplan, & Norton, D. P. (2008). The execution premium. Integrando la estrategia y las operaciones para lograr ventajas competitivas (1ra ed.). Barcelona: Ediciones Deusto. Martínez, E. A., & López, M. I. (2011). Control de gestión en unidades de producción de ganadería de doble propósito. Visión Gerencial, 10(2), 325-340. Medina León, A., Nogueira Rivera, D., Hernández Nariño, A., & Viteri, J. (2010). Relevancia de la gestión por procesos en la planificación estratégica y la mejora continua. Revista Eídos, 2. Moreno Freites, Z., Eduardo Caballero, A., & Bastidas, E. (2010). Planificación estratégica y el cuadro de mando integral: herramientas de gestión para mejora la prestación de los servicios universitarios. TEACS, 3(5), 9-23. Naranjo Gil, D. (2010). El uso del cuadro de mando integral y del presupuesto en la gestión estratégica de los hospitales públicos. Gaceta Sanitaria, 24(3), 220-224. Nogueira Rivera, D. (2002). Modelo conceptual y herramientas de apoyo para potenciar el control de gestión en las empresas cubanas. (Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas), Universidad de Matanzas "Camilo Cienfuegos", Matanzas. (Tesis en el repositorio de Ingeniería Industrial) Paladino, B., & Williams, N. (2008). Moving Strategy Forward: Merging the Balanced Scorecard and Business Intelligence. Business Performance Management Magazine, 6(2), 12. Porporato, M., & García, N. (2011). Sistemas de control de gestión: un estudio exploratorio de su efecto sobre el desempeño organizacional. Academia. Revista Latinoamericana de Administración, 47, 61-77. Sánchez Silva, E. (2007). Diseño de un sistema de Control de Gestión para el departamento de movilización de la ilustre Municipalidad de Maipú. http://www.cybertesis.cl/tesis/uchile/2007/sanchez_e/html/index-frames.html Shpilberg, D., Berez, S., Puryear, R., & Shah, S. (2007). Avoiding the alignment trap in IT. MIT Sloan Management Review, 49(1), 51. Villalbí, J. (2007). El Cuadro de Mando Integral como instrumento de dirección en una organización de salud pública. Gaceta Sanitaria, 21(1), 60-65. Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19 Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/07/27 Aceptado (Accepted): 2015/09/14 CC BY-NC-ND 3.0 Sistema automatizado para la predicción de flujo de carga en subestaciones eléctricas mediante redes neuronales artificiales (Automated system for load flow prediction in power substations using artificial neural networks) Arlys Michel Lastre Aleaga1, Erik Fernando Méndez Garcés1, Alexis Cordovés García1 Resumen: El flujo de carga tiene gran relevancia en la asistencia del proceso de toma de decisiones y planificación de la generación, distribución y trasmisión de energía eléctrica. El desconocimiento de los valores de este indicador, así como su inadecuada predicción, dificulta la toma de decisiones y eficiencia del servicio eléctrico, además puede ocasionar situaciones indeseadas tales como; la sobre demanda, el sobre calentamiento de los componentes que integran una subestación, y la no correcta planificación de los procesos de generación y distribución eléctrica. Dada la necesidad de predicción de flujo de carga eléctrica de las subestaciones en el Ecuador la presente investigación propone la concepción para el desarrollo de un sistema automatizado de predicción empleando el uso de Redes Neuronales Artificiales. Palabras clave: Predicción; Carga Eléctrica; Redes Neuronales Artificiales. Abstract: The load flow is of great importance in assisting the process of decision making and planning of generation, distribution and transmission of electricity. Ignorance of the values in this indicator, as well as their inappropriate prediction, difficult decision making and efficiency of the electricity service, and can cause undesirable situations such as; the on demand, overheating of the components that make up a substation, and incorrect planning processes electricity generation and distribution. Given the need for prediction of flow of electric charge of the substations in Ecuador this research proposes the concept for the development of an automated prediction system employing the use of Artificial Neural Networks. Keywords: Prediction; Electric Charge; Artificial Neural Networks. 1. Introducción Las Redes Neuronales Artificiales (RNA) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso del ser humano. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida (Mitchel, 1997) .En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales. El flujo de cargas (también flujo de potencias) es la herramienta fundamental para estudiar un sistema de transporte o de distribución de energía eléctrica en régimen permanente, y para poder tomar las medidas oportunas, tanto desde el punto de vista de la explotación (simulación de 1 Universidad Tecnológica Equinoccial, Sto. Domingo de los Tsáchilas - Ecuador ( {arlys.lastre, mgef506202, alexis.cordoves} @ute.edu.ec ) 21 acciones sobre un sistema existente), como desde el punto de vista de la planificación y simulación de planes de expansiones futuras (Barrero, 2004, pág. 155). En ingeniería eléctrica el uso de redes neuronales artificiales es relativamente nuevo, aunque en la última década ha tenido un avance sustancial. Los antecedentes teóricos y prácticos existentes que relacionen las RNA y la predicción de flujo de carga eléctrica son muchas veces incompletos en su estructura, ya que algunos no integran una GUI (Interfaz gráfica de usuario) que permite presentar sistemas dinámicos de cálculo y predicción con el usuario. Cabe recalcar que varias universidades han desarrollado como parte de sus investigaciones varios modelos de predicción con redes neuronales artificiales, de esto se pueden destacar varias investigaciones realizadas en países de habla hispana como España, Perú y Colombia. En la presente investigación se propone el desarrollo de un sistema automatizado de predicción empleando el uso de redes neuronales artificiales para determinar de manera fiable y precisa el flujo de carga en subestaciones eléctricas, considerando las exigencias técnicas y de demanda características de cada una de ella. Para lograr este fin se utilizaran los datos históricos de potencia de una subestación eléctrica de la empresa estatal “Transelectric EP” como caso de estudio para estos fines. La predicción de este índice energético es de gran importancia para la toma de decisiones en la planificación de la generación de electricidad donde el “Centro Nacional de Control de Energía” (CENACE) es el ente regulador principal para este propósito, de la misma forma, el flujo de potencia es necesario para asegurar la fiabilidad energética, favorece el correcto y oportuno mantenimiento, y la asistencia en la toma de decisiones en la distribución de energía eléctrica que demanda la “Corporación nacional de electricidad” (CNEL EP). Las interpolaciones, extrapolaciones y cualquier método de aproximación existente en la actualidad, no permiten conocer con precisión cuál será la demanda futura en una subestación eléctrica. Por ello, es necesario disponer de un método capaz de predecir, de manera fiable, veraz, y con un mínimo error de cálculo. Es por eso y teniendo conocimiento de la problemática a la hora de predecir el flujo de carga se plantea: desarrollar un sistema que permita predecir este índice energético aplicando los principios de las redes neuronales artificiales. Por consiguiente se debe reconocer que para el desarrollo del sistema de predicción se deberá integrar la programación lógica del mismo, haciendo uso de herramientas informáticas que permitan dar solución a dicho problema. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 22 2. Metodología La energía es la capacidad que poseen los cuerpos para poder efectuar un trabajo a causa de su constitución (energía interna), de su posición (energía potencial) o de su movimiento (energía cinética). Es una magnitud homogénea con el trabajo, por lo que se mide en las mismas unidades, es decir en julios en el Sistema Internacional. Según la forma o el sistema físico en que se manifiesta, se consideran diferentes formas de energía: térmica, mecánica, eléctrica, química, electromagnética, nuclear, luminosa, etc. (Nuclear, 2014). La potencia se transmite o se transfiere cuando existe flujo de electricidad, es un índice energético que tiene una estrecha relación, específicamente la potencia se define como el trabajo realizado por unidad de tiempo por lo que sus dimensiones en el sistema internacional se expresan en Joules (J) sobre segundo (s) tal y como se referencia en la Ecuación 1, (Segui, Sanchez, & Orts, 2002). 𝑷= 𝑻 (𝑻𝒓𝒂𝒃𝒂𝒋𝒐) 𝒕 (𝒕𝒊𝒆𝒎𝒑𝒐) (1) A partir de esa definición general se puede representar y dar forma a la potencia eléctrica que no es nada más que la relación del trabajo eléctrico o energía que se disipa por unidad de tiempo. En corriente continua la potencia es igual al producto de la tensión (Voltios) por la corriente (Amperios) que circula por el circuito, pero en cambio analizando la corriente senoidal o corriente alterna se obtiene la integración del tiempo, y en adición a las cargas resistivas habituales que se integran en la corriente continua, se deben incluir dos cargas más para el análisis, generalmente las cargas se dividen en: Cargas lineales o cargas resistivas Cargas no lineales o cargas inductivas y capacitivas. En la Figura 1 se detalla la relación de ambos tipos de cargas por medio de un triángulo denominado “Triángulo de potencias” en el análisis de la corriente alterna. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 23 Figura 1. Triángulo de las potencias en la corriente alterna En Weedy (Weedy, 2012, pág. 4), se define potencia como: “Los sistemas de suministro de energía eléctrica modernos son invariablemente trifásicos. La red de distribución se proyecta de forma que su funcionamiento normal es razonablemente próximo al de las tres fases equilibradas y con frecuencia basta con estudiar las condiciones eléctricas de una sola fase para obtener un análisis completo. Se asegura la carga igual de las tres fases de una red haciendo, siempre que sea posible, que las cargas domésticas se repartan por igual entre las fases de las líneas de distribución de baja tensión; normalmente las cargas industriales son siempre trifásicas.” En (Weedy, 2012) específicamente se habla de la forma en la que se transmite actualmente la energía en un sistema eléctrico. Es muy importante recalcar el medio de transmisión ya que en este mismo proceso y con datos efectivos resultantes del mismo se pueden orientar procesos de mayor relevancia como la producción o generación de energía eléctrica y mantenimiento de servicios de un sistema eléctrico. Flujo de potencia o flujo de carga En el lenguaje convencional de los sistemas eléctricos de potencia se emplea el término flujo de carga para expresar una solución de estado en régimen permanente de la red objeto de estudio. Esta solución ha de aportar como información los valores de las tensiones en todos sus nudos, los flujos de potencias activa y reactiva por cada línea, así como corrientes, factores de potencia, etc. (Coto Aladro, 2002, pág. 119). El análisis del flujo de cargas concierne no solo al mecanismo físico que controla el flujo de potencias en una red sino también permite la búsqueda de la configuración óptima de flujo de todas las posibles. Dentro del subsistema de distribución, los centros de transformación tienen como función reducir la tensión de la red de distribución a los valores de consumo doméstico (120, 230 y 400 V), es decir a baja tensión. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 24 Un sistema eléctrico es el corazón energético de un país, haciendo posible que el consumidor final, las personas, puedan aprovechar de manera fiable, eficiente y con un alto nivel de confiabilidad la energía eléctrica obtenida y transportada por procesos variados que generalmente, varían en cada país, adecuándose a las características de producción de la energía. La transmisión de energía eléctrica tiene un rol fundamental a la hora de trasladar la energía generada desde las plantas generadoras hasta los puntos de distribución siendo estos generalmente el consumidor final. En la transmisión eléctrica debemos considerar varios aspectos que enmarcan el papel fundamental que tiene este subsistema en el desarrollo energético de un país. El mundo tiende al uso de las fuentes de energía renovables para producir lo que denominamos energía limpia. Así, el estado ecuatoriano está invirtiendo recursos para poder obtener una matriz energética basada en fuentes energéticas renovables (Robalino Quito, 2012). El Ecuador es un país con características topográficas muy variadas, de gran diversidad climática y condiciones únicas que le confieren un elevado potencial de energías renovables y limpias, las cuales no pueden quedar al margen del Inventario de los Recursos Energéticos para Producción Eléctrica, pues las condiciones de cobertura y satisfacción de la demanda que se presentan en la actualidad, demuestran un estrecho vínculo especialmente con la electrificación y energización rural. En los últimos 15 años el país ha tenido una gran demanda por fuentes de generación de energía relacionadas con combustibles fósiles, en el país según la Secretaría Nacional de Planificación y Desarrollo, en su plan del buen vivir, el 43.3 % de la energía es proveniente de la generación eléctrica por medio de combustibles fósiles, y el 45.3% proviene de las empresas hidroeléctricas ya en ejecución. El otro porcentaje restante es proveniente de fuentes de generación alterna y de la importación de energía. Con el paso de los años y acorde con el nuevo plan nacional del “Buen vivir” (2013-2017) en su punto 5 “Planificamos el futuro” menciona que progresivamente se reducirá el uso de fuentes de energía que integren fuentes no renovables como lo son los combustibles fósiles que no son amigables con el medio ambiente, y pasar a hacer uso ya de las fuentes renovables que el país dispone en materia de producción de energía eléctrica como son las generadoras hidroeléctricas y los proyectos alternos de producción de energía, como la generación de energía solar, eólica, biomasa, mareomotriz, entre otros (ver Tabla 1). Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 25 Tabla 1. Producción anual de enérgia eléctrica en el Ecuador según su fuente energética. Fuente: CONELEC (Consejo nacional de electricidad) La empresa pública encargada de la generación y transmisión de la energía eléctrica en el Ecuador es la Corporación Eléctrica del Ecuador (CELEC). Actualmente, se encuentra conformada por 8 unidades de generación hidroeléctrica (Enerjubones, Enernorte, Hidroagoyan, Hidronacion, Hidropaute, Hidrotoapi, Hidronacion, Hidroazogues), 4 de generación térmica (Electroguayas, Termoesmeraldas, Termopichincha, Termogas Machala), una de generación eólica (Gensur), y una unidad de transmisión eléctrica (Transelectric). Con una inversión de 4.983 millones de dólares, nuevos proyectos aumentarán a 6.779 megavatios de potencia la capacidad instalada en el país, que ahora es de 3.770 megavatios. Los principales proyectos en ejecución son Coca-Codo-Sinclair (con una capacidad de 1.500 megavatios), Toachi-Pilatón (253 megavatios) y Sopladora con 487 megavatios. Con respecto a la transmisión eléctrica en el país la empresa encargada es “TRANSELECTRIC”, una división de “CELEC EP” es responsable de operar el Sistema Nacional de Transmisión, y su objetivo fundamental es el transporte de energía eléctrica, garantizando el libre acceso a las redes de transmisión a los agentes del Mercado Eléctrico Mayorista, compuesto por generadores, distribuidores y grandes consumidores. Cabe recalcar que el transmisor no puede comercializar energía eléctrica. Es necesario también enunciar algunos datos de interés del sistema de transmisión ecuatoriano para así comprender la realidad general del trabajo de investigación. A continuación en la Tabla 2 se citan caracteristicas variadas del sistema. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 26 Tabla 2. Caracteristicas generales del Sistema Nacional de Transmisión Fuente: TRANSELECTRIC El documento habilitante para la toma de decisiones y planificación de energía eléctrica en el Ecuador es el Plan Maestro de Electrificación (PME) que constituye una herramienta integral e intersectorial de planificación que permite determinar las inversiones orientadas a garantizar el normal abastecimiento de energía eléctrica a la demanda nacional, a través del desarrollo de proyectos de generación, expansión, distribución y transmisión a corto, mediano y largo plazo. Una visión integral del país, que toma en consideración las realidades y políticas de todos los sectores de la economía, entre ellos la matriz productiva, el desarrollo del sector minero y la prestación del servicio al sector hidrocarburífero, implica necesariamente considerar la expansión de toda la cadena de suministro. La proyección de la demanda, constituye el elemento integrador sobre el cual se desarrolla la planificación de la expansión del sistema con una visión global. La planificación de la generación y distribución eléctrica es tratada como un problema de optimización para encontrar la estrategia óptima en la hoja de ruta de inversión y construcción de nuevas fuentes de generación, a la vez que se satisfacen las restricciones técnicas y económicas del problema de Despacho Económico Hidrotérmico y de la demanda proyectada futura para el Sistema Nacional Interconectado del Ecuador (límites de embalses, disponibilidad de generación y costos variables). En la actualidad debido al cambio producido en la estructura del mercado eléctrico ecuatoriano en base a una estructuración vertical con mayoritaria participación del Estado, la prioridad no está en el beneficio financiero de una inversión, lo primordial es el beneficio social, la capacidad de autoabastecimiento y la soberanía energética. El propósito de la planificación es proveer de una herramienta de decisión que permita la toma de decisiones en la ejecución de proyectos de generación eléctrica futura. El análisis se centra en determinar “opciones reales” en contextos probables de ocurrencia, lo que significa insertar al análisis, incertidumbres que podrían provocar no siempre que un escenario óptimo financieramente sea el más adecuado. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 27 Importancia de la predicción de flujo de carga El desarrollo del sector eléctrico es estratégico; por lo tanto, debe garantizar el abastecimiento energético, principalmente mediante el incremento de la participación de la generación hidroeléctrica debido a las características topográficas del Ecuador que permitirá reducir progresivamente la generación termoeléctrica; así también, debe fortalecer la red de transmisión y sub-transmisión, adaptándolas a las actuales y futuras condiciones de oferta y demanda de electricidad. Esto se complementa con la inserción paulatina del país en el manejo de otras fuentes de energía renovable como: energía solar, eólica, geotérmica, de biomasa, mareomotriz; estableciéndose como las principales alternativas sostenibles en el largo plazo para la generación de energía eléctrica. Dentro de este contexto, la proyección de la demanda se convierte en el eje fundamental a partir del cual se desarrolla la planificación, debido a que considera una serie de hipótesis debidamente sustentadas que contemplan la evolución histórica de la demanda eléctrica a nivel nacional, los impactos producidos por la incorporación de cargas especiales al sistema, variables políticas, económicas, sociales, ambientales y tecnológicas que se reflejan en el comportamiento de la demanda eléctrica. Como parte de los lineamientos establecidos por el Ministerio de Electricidad y Energía Renovable, MEER, respecto a la demanda eléctrica, se señala que: “... la proyección de la demanda, que constituye el elemento básico y fundamental sobre el cual se desarrolla la planificación de la expansión del sistema, debe considerar además del crecimiento tendencial de la población y del consumo, la incorporación de importantes cargas en el sistema, como son los proyectos mineros, la Refinería del Pacífico, el cambio de la matriz energética productiva del país; y, fundamentalmente, la migración de consumos de GLP y derivados de petróleo a electricidad, una vez que el país cuente con la producción de los proyectos de generación que hoy se ejecutan. También se deben considerar los efectos de las acciones que se desarrollan para mejorar la eficiencia energética en los sectores residencial y productivo.” (MEER, 2013) Para evaluar y ver la factibilidad de implementación de un modelo de predicción es necesario considerar diversos aspectos. Las características más importantes, necesarias para la predicción (Lei, Shiyan, Chuanwen, Hongling, & Yan, 2009) son: variables de predicción, entradas del modelo, tipo de modelo, horizonte y tiempo de muestreo, criterio para evaluar el resultado y los respectivos resultados. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 28 3. Materiales y métodos Quizás la parte más difícil en la construcción de un buen modelo de red neuronal es la relacionada con selección y recogida de la información que alimentará al mismo en la fase de entrenamiento. A partir de investigaciones realizadas y consultas a expertos, se ha podido recolectar la data histórica de mediciones de demanda de carga eléctrica en la subestación eléctrica en Santo Domingo de los Tsáchilas, a partir de la cual se ha realizado todo el proceso de análisis para la comprobación de la integridad y limpieza de los datos. Resulta necesario establecer las variables de entrada para determinar la arquitectura del sistema. En el caso de estudio, a partir de la información histórica disponible, se determinan como variables de entrada, los valores correspondientes a hora, día y mes; como variable de salida la carga eléctrica demandada en el periodo correspondiente. A partir de la definición del periodo de predicción, el sistema entregará los resultados que describan detalladamente los consumos de cargas asociados. Para ello se ha determinado el nivel de información necesario, según el periodo de predicción (ver Tabla 3). Teniendo en cuenta los tipos de datos y la información necesario a entregar, según el periodo de predicción, se desarrolló el algoritmo que describe el proceso general, desde la entrada de datos hasta la generación de reportes predictivos (ver figuras 2, 3 y 4). Tabla 3. Entrega de resultados según el periodo de prediccion Periodo a Predecir Diario Entrega de Resultados Mensual (mes, Día 1,MediaDia1) . (mes,Día n MediaDian) Todo el año (mes 1, Día 1,MediaDia1) . (mes 12, Día n MediaDian) (Día, hora 1) . (Día, hora 23) Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 29 Figura 2. Algoritmo general del sistema. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 30 Figura 3. Subrutina A. Ciclo de llamadas para estimar el pronóstico del mes. Figura 4. Subrutina B. Ciclo de llamadas para estimar el pronóstico del año. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 31 4. Resultados y discusión Para la evaluación de los resultados, se compararon datos referentes a la predicción del sistema automatizado de ciertos días del mes de Septiembre, y de todo el mes en general, cabe recalcar que la RNA se modelo en función de los siguientes datos reales de la subestación “Santo Domingo”, estos son: Datos de carga (potencia aparente) del mes de Junio del 2014 Datos de carga (potencia aparente) del mes de Julio del 2014 Datos de carga (potencia aparente) del mes de Agosto del 2014 Los registros históricos adicionales obtenidos de Septiembre de 2014 permitieron la comparación “Predicción” vs “Real” del presente sistema automatizado, a continuación se enumeran distintos casos de evaluación de días aleatorios del mes de Septiembre, y adicional a estos una comparativa mensual del mes antes mencionado. Análisis del día 3 de Septiembre de 2014 El presente análisis se hizo considerando los datos del día 3 de Septiembre haciendo una comparativa con los datos reales registrados en la subestación eléctrica de transmisión “Santo Domingo” con los datos de predicción del sistema automatizado, los resultados se muestran en la Figura 5. Figura 5. Resultados de comparación del día de 3 de Septiembre de 2014 Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 32 De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la predicción realizada por la RNA, las generalidades se destacan a continuación: La fiabilidad máxima de predicción fue de 99.90% donde el error mínimo obtenido fue de 0.095% a las 10:00 am del presente día. La fiabilidad mínima de la predicción fue de 94.74% donde el error obtenido fue de 5.26% a las 6:00 am del presente día. La fiabilidad total de la predicción de la RNA fue de 98.8%, donde la media del error del presente día fue “1.2%”. Los resultados se catalogan como “muy satisfactorios” denotando nuevamente la fiabilidad y capacidad de la RNA en la predicción de flujo de carga (Potencia aparente). Análisis del día 6 de Septiembre de 2014 El presente análisis se hizo considerando los datos del día 6 de Septiembre haciendo una comparativa con los datos reales registrados en la subestación eléctrica de transmisión “Santo Domingo” con los datos de predicción del sistema automatizado, los resultados se muestran en la Figura 6. Figura 6. Resultados de comparación del día de 6 de Septiembre de 2014 De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la predicción realizada por la RNA, las generalidades se destacan a continuación: La fiabilidad máxima de predicción fue de 99.57% donde el error mínimo obtenido fue de 0.43 % a las 6:00 am del presente día. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 33 La fiabilidad mínima de la predicción fue de 92.96% donde el error obtenido fue de 7.049 % a las 9:00 am del presente día. La fiabilidad total de la predicción de la RNA fue de 99.66%, donde la media del error del presente día fue “0.34%”. Los resultados se catalogan como “muy satisfactorios”, con una fiabilidad mayor (99.66%) en comparación al análisis anterior denotando nuevamente la confiabilidad y capacidad de la RNA en la predicción de flujo de carga (Potencia aparente). Análisis de resultados el mes de Septiembre de 2014 El presente análisis se hizo considerando los datos de las medias aritméticas diarias del mes de Septiembre haciendo una comparativa entre los datos reales registrados en la subestación eléctrica de transmisión “Santo Domingo”, y los datos referentes a la predicción del sistema automatizado, los resultados se muestran en la Figura 7. Figura 7. Resultados de comparación mensuales (Septiembre) De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la predicción realizada por la RNA, las generalidades se destacan a continuación: La fiabilidad máxima de predicción fue de 99.93% donde el error mínimo obtenido fue de 0.062 % del día 17 del presente mes. La fiabilidad mínima de la predicción fue de 85.72% donde el error obtenido fue de 14.28 % del primer día del presente mes. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 34 La fiabilidad total de la predicción de la RNA fue de 95.76%, donde la media del error del mes fue “4.24%” 5. Conclusiones y Recomendaciones Conclusiones El estudio de las series históricas de carga es el primer paso de gran importancia para un modelo de previsión de carga. Es a partir de ella que se llegó a una determinación de la arquitectura del modelo a ser utilizada, pues basada en este se definieron parámetros importantes para la topología del modelo, tales como un sistema para cada día, mes y anual. La metodología de las redes neuronales aplicada a la previsión de demanda eléctrica, puede representar una herramienta de gran utilidad, permitiendo alcanzar un adecuado nivel de confiabilidad. A fin de encontrar un patrón de carga adecuado para el día en que la carga horaria será prevista, se puede construir una red neuronal que permita identificar aquellos días con patrón de carga similar, agrupándolos en clases. Este modelo neuronal evitaría la entrada de datos redundantes que no influyen en el comportamiento, además de los posibles problemas que causarían en el proceso de previsión debido a la complejidad adicional que se exige. El desarrollo de un sistema de predicción de flujo de carga en el Ecuador que integre redes neuronales artificiales es algo innovador, ya que relaciona dos campos de las ciencias exactas, la informática con las poderosas herramientas de cálculos que permiten el desarrollo de modelaciones matemáticas más precisas en la predicción, y por otra parte la integración de la ingeniería eléctrica siendo uno de los ejes de desarrollo del país, tal y como la indica la “Matriz productiva” en su lineamiento “10.9.a” La propuesta de un algoritmo como conceptualización del sistema, no excluye el estudio de otras metodologías aplicables a la estimación de carga. Las sugerencias de trabajos futuros para la previsión de carga utilizando técnicas de inteligencia computacional, tales como modelos híbridos neuro-fuzzy, entre otros. Recomendaciones La necesaria implementación de la concepción propuesta y el estudio de contraste correspondiente para evaluar el nivel de respuesta del sistema de predicción. Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 35 Se recomienda realizar una futura investigación de redes neuronales artificiales para la predicción considerando más variedades de índices energéticos, desarrollando sistemas automatizados, que mejoren aún más la fiabilidad de la predicción, y puedan retroalimentarse en tiempo real con los datos de subestaciones eléctricas del país para mejorar la planificación energética, esto se conseguiría si se incorpora el concepto de “Minería de datos” para futuras investigaciones. Bibliografía Barrero, F. (2004). Sistemas de energía eléctrica. Madrid: Paraninfo. Coto Aladro, J. (2002). Análisis de sistemas de energia eléctrica. Oviedo: Universidad de Oviedo. Lei, M., Shiyan, L., Chuanwen, J., Hongling, L., & Yan, Z. (2009). A review on the forecasting of wind. Renewable and Sustainable Energy Reviews 13, 915-920. MEER. (2013). Plan Maestro de Electrificación. Quito. Mitchel, T. (1997). Machine Learning. McGraw Hill. Nuclear, F. (2014). Foro Nuclear. Obtenido de http://www.foronuclear.org/es/energia- nuclear/faqas-sobre-energia/capitulo-1 Robalino Quito, R. A. (9 de Julio de 2012). Fuentes de generación eléctrica. Loja, Loja, Ecuador: Universidad Técnica Particular de Loja. Segui, S., Sanchez, C., & Orts, S. (2002). Fundamentos básicos de la electrónica de potencia. Valencia: Reproval, S.L. Weedy, B. M. (2012). Electric Power Systems. UK: Wiley . Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35 Enfoque UTE, V.6-N.3, Sep.2015, pp. 36 - 51 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9663 Recibido (Received): 2015/04/30 Aceptado (Accepted): 2015/09/14 CC BY-NC-ND 3.0 Windows Server 2012 vulnerabilities and security (Vulnerabilidades y Seguridad de Windows Server 2012) Gabriel R. López1, Danny S. Guamán1, Julio C. Caiza1 Abstract: This investigation analyses the history of the vulnerabilities of the base system Windows Server 2012 highlighting the most critic vulnerabilities given every 4 months since its creation until the current date of the research. It was organized by the type of vulnerabilities based on the classification of the NIST. Next, given the official vulnerabilities of the system, the authors show how a critical vulnerability is treated by Microsoft in order to countermeasure the security flaw. Then, the authors present the recommended security approaches for Windows Server 2012, which focus on the baseline software given by Microsoft, update, patch and change management, hardening practices and the application of Active Directory Rights Management Services (AD RMS). AD RMS is considered as an important feature since it is able to protect the system even though it is compromised using access lists at a document level. Finally, the investigation of the state of the art related to the security of Windows Server 2012 shows an analysis of solutions given by third parties vendors, which offer security products to secure the base system objective of this study. The recommended solution given by the authors present the security vendor Symantec with its successful features and also characteristics that the authors considered that may have to be improved in future versions of the security solution. Keywords: Windows Server 2012, vulnerabilities, CVE, operating systems security, Resumen: El presente trabajo de investigación analiza la historia de vulnerabilidades del sistema base Windows Server 2012, resaltando las más críticas por cuatrimestres desde su creación hasta la fecha actual organizado por tipo de vulnerabilidad de acuerdo a la clasificación de la NIST. A continuación dadas las vulnerabilidades oficiales, los autores presentan cómo una vulnerabilidad considerada crítica es tratada por Microsoft para mitigarla. Luego los autores proponen medidas de seguridad para Windows Server 2012, donde se enfocan básicamente en baseline de Microsoft, administración de actualizaciones, buenas prácticas de hardening y aplicación de Active Directory Rights Management Services (AD RMS). AD RMS se considera como una valiosa característica que tiene como objetivo la protección del sistema a pesar que éste se encuentre comprometido usando listas de acceso a nivel de documento. Finalmente la investigación del estado del arte de la seguridad de Windows Server 2012 muestra un análisis de soluciones desarrollados por terceros para la protección del sistema operativo objeto del estudio. Como solución de seguridad recomendada los autores presentan a Symantec mostrando sus propiedades de éxito, así como características que podrían ser implementadas en versiones futuras como una oportunidad de mejora. Palabras clave: Windows Server 2012, vulnerabilidades, CVE, seguridad de sistemas operativos, 1 Escuela Politécnica Nacional, Quito – Ecuador ( {gabriel.lopez, danny.guaman, julio.caiza} @epn.edu.ec ) 37 1. Introduction Something new in a perfect world maybe perfect, but since IT administrators live in a real world, all pieces of software have problems and errors. The problems that base systems or operating systems may have are known as vulnerabilities. The operating system of a server has vulnerabilities, which are really critical if they are exploited since servers provide services and a disruption may affect a lot of users. This is why the authors have chosen to study the vulnerabilities of Windows Server 2012, which is the last version of the operating systems for Microsoft servers. The study has as its objective to research about the state of the art of the vulnerabilities and security related to Windows Server 2012 since its creation. The investigation starts presenting the current status of its vulnerabilities, which affects the operating system based on the classification used by the National Institute of Standards and Technology (NIST). Each type of vulnerability will be detailed in order from the most common to the less common highlighting the most critical vulnerability of each different kind. In addition, it is showed how one of the most critical vulnerabilities work and how it has been solved by the vendor. Furthermore, the authors suggest Security approaches to mitigate vulnerabilities and security flaws that affect Windows Server 2012. Finally, it is showed how third parties help to protect Windows Server 2012 using as a reference the information technology research and advisory company Gartner. 2. Windows Server 2012 vulnerabilities Review Windows Server 2012 has experienced 168 official Common Vulnerabilities and Exposures (CVE), according to the database of the National Institute of Standards and Technology (NIST 2015) since its release on September 4th of 2012 (Microsoft 2012) until April 2015 when the investigation was performed. The 168 vulnerabilities of Windows Server 2012 in this period of almost three years has gotten different types of Common Weakness Enumeration (CWE), which helps to categorize the vulnerabilities (CWE 2013). To begin, the majority of CWE for Windows Server 2012 are Permissions, Privileges and Access Control with the 25% of the total (See Table 1), which means that the system has problems in managing access restrictions. Table 1 shows the Common Weakness Enumeration (CWE) of Windows Server 2012, which is a list of software weaknesses about the operating system; with the corresponding numbers of vulnerabilities found in a period of every 4 months since the release of the software. The vulnerabilities of this CWE cause in general gain privileges attacks, man in the middle attacks and remote or physically code execution with a USB, which could provoke a denial of service. The vulnerabilities CVE-2013-3175 published on August 14th of 2013 and CVE-2013-0073 published on February 13th of 2013 have both a CVSS (Common Vulnerability Scoring System) of 10.0, so they are the most dangerous of the CWE of Permissions, Privileges and Access Control. These vulnerabilities allows the attacker to do a remote code execution (NIST 2015). Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 38 Table 1. Vulnerabilities of Windows Server 2012 classify by CWE (NIST 2015). 2012 CWE September December 2013 January April May August 2014 September December January April May August 2015 September December January April 2012 - 2015 # % Permissions, Privilegies and Access Control 1 6 4 2 3 7 4 15 42 25 Buffer Errors 1 3 7 8 3 2 0 2 26 15 Resource Management Errors 2 12 1 2 1 2 1 2 23 14 Code Injection 1 1 2 2 0 1 5 8 20 12 Input Validation 2 2 0 6 1 4 2 2 19 11 Information Leak / Disclosure 0 1 1 1 0 0 1 8 12 7 Other 1 1 1 0 0 1 1 6 11 7 Numeric Errors 2 1 0 2 0 0 0 0 5 3 Race Conditions 0 4 0 0 0 0 0 0 4 2 Insufficient Information 0 2 0 0 0 1 0 1 4 2 Path Traversal 0 0 1 0 0 0 0 1 2 1 Total 10 33 17 23 8 18 14 45 168 100 Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 39 The second most popular type of CWE for Windows Server 2012 are Buffer Errors with a 15% of the total of vulnerabilities (See Table 1). This security issue in general helps the hacker to gain access and do a remote code execution. The vulnerability CVE-2012-2897 published on September 26th of 2012 has the highest Common Vulnerability Scoring System (CVSS) of 10.0 in the Buffer Errors CWE. In this vulnerability, the kernel-mode drivers do not manage correctly the objects in memory, causing that the attacker can do a remote code execution (NIST 2015). The third most popular type of CWE for Windows Server 2012 is the resource management errors with 14% of the total (See Table 1), which means that the hackers exploits the lack of control in manipulating disk, memory or CPU of the server. This type of flaw provokes in general the vulnerability of remote code execution. The vulnerability with the highest CVSS in the Resource Management Errors CWE is CVE-2013-3195, which was published on October 9th of 2013 and it has a CVSS of 10.0. The security issue for this case is that the DSA_InsertItem function in Comctl32.dll is not assigning memory correctly, so it causes the problem of remote code execution (NIST 2015). The CWE of code injection represents the 12% of the vulnerabilities for Windows Server 2012 (See Table 1). This flaw is related directly to vulnerabilities that allows the hacker to perform remote code execution. In general this types of vulnerabilities have the highest Common Vulnerability Scoring System (CVSS) (NIST 2015) because the hacker could be able to get full control over the server. Five vulnerabilities that are part of the Code Injection CWE have the highest CVSS of 9.3. CVE-2013-3894 published on October 9th of 2013, CVE-2013-3174 published on July 7th of 2013, CVE-2013-3129 published on July 10th of 2013, CVE-2013-0007 published on January 9th of 2013 and CVE-2012-2556 published on December 12th of 2012 have the security issue of allowing the attacker to do a remote code execution (NIST 2015) as it is shown in Table 2. Table 2. Critical vulnerabilities for the CWE of code injection. Published CVE Date CWE CVSS CVE-2013-3894 09/10/2013 CVE-2013-3174 07/07/2013 CVE-2013-3129 10/07/2013 CVE-2013-0007 09/01/2013 CVE-2012-2556 12/12/2012 Code Injection 9.3 The 11% of the Windows Server 2012 vulnerabilities are about input validation problems (See Table 1), which in other words means that some data is not being checked to be valid. This kind of CWE is related with vulnerabilities which in general could cause denial of service, malicious remote code execution or man in the middle attacks. The vulnerabilities with the highest CVSS of 9.3 are Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 40 CVE-2013-3128 published on October 10th of 2013, CVE-2013-0004 published on January 9th of 2013 and CVE-2012-4776 published on November 14th of 2012. The three vulnerabilities permit the attacker to do a remote code execution (NIST 2015). The CWE for information leak/disclosure and other represents the 7% of the vulnerabilities of Windows Server 2012 (See Table 1). This CWE means that the system has problems exposing private information, which could lead to have vulnerabilities that will allow to obtain sensitive information of the system. The vulnerability CVE-2013-3185 published on August 14th of 2013 has the highest CVSS of 5.0 in the Information Leak / Disclosure CWE. In this vulnerability, Active Directory Federation Services permits the attacker to get private information of the service account (NIST 2015). The numeric errors CWE represents the 3% of the vulnerabilities of Windows Server 2012 (See Table 1), this flaw happens when the system gets errors when handling numbers. The vulnerabilities related to this CWE may be able to cause attacks like gain privileges, remote code execution or denial of service. Four vulnerabilities that are part of the Numeric Errors CWE have the highest CVSS of 9.3. CVE-2013-3940 published on November 13th of 2013 and CVE-20130006 published on January 9th of 2013 have the security issue of allowing the attacker to do a remote code execution. CVE-2012-1528 published on November 14th of 2012 and CVE-20121527 published on November 14th of 2012 have the security issue of allowing the attacker to gain privileges (NIST 2015). The CWE of race conditions is just the 2% of vulnerabilities of Windows Server 2012 (See Table 1) and it represents problems about instability of the state of a resource. The CWE of this type in general generates vulnerabilities that allows to gain privileges. Two vulnerabilities that are part of the Race Conditions CWE have the highest CVSS of 6.9. CVE-2013-1292 and CVE-2013-1283 both published on April 9th of 2013 have the security issue of allowing the attacker to gain privileges (NIST 2015). The 2% of the vulnerabilities of Windows Server 2012 are considered that do not have a category of CWE or there is not sufficient information to classify them (See Table 1). In the category of insufficient information to classify the vulnerability as part of a CWE, the one with the highest CVSS of 9.3 is CVE-2013-0074 published on November 3rd of 2013. This vulnerability allows the attacker to do a remote code execution (NIST 2015). Finally, the path traversal CWE is only the 1% of the vulnerabilities of Windows Server 2012 (See Table 1). The vulnerability related to this CWE provokes a denial of service. The only vulnerability of this category of CWE is the CVE-2013-3661 published on May 24th of 2013. In this vulnerability, the EPATHOBJ::bFlatten function in win32k.sys allows the attacker to perform a denial of service (NIST 2015). Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 41 The figure 1 shows the official vulnerabilities of Windows Server 2012 from September 2012 to April 2015 classified by the type of CWE based on the NIST classification. Vulnerabilities of Windows Server 2012 50 40 30 20 10 0 September - January -April May -August December 2012 September - January -April May -August December 2013 September - January -April December 2014 Permissions, Privilegies and Access Control Buffer Errors Resource Management Errors Code Injection Input Validation Information Leak / Disclosure Other Numeric Errors Race Conditions Insufficient Information 2015 Path Traversal Figure 1. Vulnerabilities of Windows Server 2012 Figure 1 shows that Windows Server 2012 from September 2012 to the period of May-August 2013 the vulnerability related to Resource Management Errors has the dominance in comparison with the other vulnerabilities, but since that period of time the CWE that starts to grow is Buffer Errors until January-April 2014. Finally the vulnerability type that has more official CVE related is Permissions, Privileges and Access Control, which started to increase in the period of JanuaryApril 2014 and kept the dominance until the current period of January-April 2015. 3. Solution for a critical vulnerability of Windows Server 2012 Firstly, the authors have chosen the vulnerability CVE-2013-3195 due to its high CVSS, recentness and type of CWE. To begin, the vulnerability due to the impact of 10.0, which means that it has a complete impact on the metrics of confidentiality, integrity and availability. The exploitability has also a value of 10.0 because its access vector is the network, the access complexity is low and it does not require authentication (NIST 2015), so an attacker will be able to access remotely and without a high complexity. In addition, the CVE-2013-3195 is the last official CVE vulnerability published on December 20th of 2013, which has the max CVSS of 10.0 for Windows Server 2012. Finally the type of CWE for CVE-2013-3195 is resource management errors, which is critical for servers. This type of vulnerability could provoke that an external agent may take control of the resources of a company, so the investment in the case of a server asset will not generate a benefit for the organization if the server is compromised. Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 42 Secondly, the CVE-2013-3195 generates a problem which allows the hacker to execute arbitrary code. The root cause of the security issue is that the DSA_InsertItem function in Comctl32.dll, has problems allocating memory, so the attacker via network can do an execution of a malicious code (NIST 2015). The function specifically puts a new item inside the dynamic structure array (DSA) (Microsoft 2015). Moreover, the hacker in order to perform the attack can use a shaped value in an argument placed to an ASP.NET web application, so this vulnerability is very critical for web application servers. If the attacker can exploit this vulnerability can get the same privileges of logged on user or a local user (NIST 2015). Also, this vulnerability only applies for systems of 64bit, since for 32-bit architectures this kind of attack vector is block by default in its configuration (Microsoft 2015). Finally, exploits have not been developed for this vulnerability (Offensive Security 2015). Thirdly, Microsoft has developed updates in order to countermeasure the vulnerability CVE-20133195. The solution has been published in the Microsoft Security Bulletin MS13-083 (US-CERT 2014), where the vulnerability has been identify as Vulnerability in Windows Common Control Library with the ID 2864058 (Microsoft 2015). The security update has been classified as critical for all 64-bit MS operating systems and it fixes the vulnerability because it correct the procedure that the Windows common control library assigns memory for data structures. The Security Update for Windows Server 2012 (KB2864058) can be downloaded from the Download Center of Microsoft by the file name Windows8-RT-KB2864058-x64.msu (Microsoft 2015). After the installation of the update, the system has to be restarted. In addition, the recommendations to prevent to have problems with this kind of vulnerability are: deny external access to the server unless is necessary, run software with users which have only the minimum and required privileges, the use of memoryprotection schemes, like non-executable stack/heap configurations (Symantec Corporation 2015). It is important to mention that all the vulnerabilities presented in this section have been patched by a Microsoft update since they do not represent zero-day attacks. Generally speaking, the vulnerabilities formally presented by CVE, NIST and Microsoft have its solution published in the Microsoft security Bulletin, which is realised on the Second Tuesday of each month (Microsoft 2015). 4. Security approaches for Windows Server 2012 Firstly, Microsoft Windows recommend the use of the tool Windows Server 2012 Security Baseline in order to configure general best security practices for this operating system. To begin, this tool helps to plan, deploy and monitor security hardening for the system (Microsoft 2015). The Baseline software is a compendium of procedures for secure configuration of Windows Server 2012, which shows the administrator a list of vulnerabilities related to the install environment of Windows Server 2012 in order to recognize threats, as well as recommendations supported with technical information in order to apply countermeasures to solve the security issues. The security baseline is Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 43 managed by the Microsoft Security Compliance Manager tool (SCM tool), which provides a centralized point of administration for viewing, exporting and updating security baselines (Microsoft 2015). Also, Windows Server 2012 Security Baseline is provided for both versions: Windows Server 2012 and Windows Server 2012 R2 (Microsoft 2015). In addition, Microsoft provides the Microsoft Security Assessment Tool 4.0, which measures the security approaches related to people, process and technology. It is composed of various questions related to best practices like ISO 17799 and NIST-800.x, as well as from the Microsoft’s Trustworthy Computing Group. After finishing the assessment a report will be given with the results (Microsoft 2015). Moreover, the administrator of a Microsoft Windows Server 2012 platform should consider the built-in technology of the system to improve its security in the areas of authentication and identity, authorization and isolation, data protection and secure networking. In a following part of this essay, it will be discussed the important tool Active Directory Rights Management Services, which helps to preserve authentication and identity, authorization and isolation and data protection (Microsoft 2015). Secondly, it is recommended to consider the security approaches of Windows Server 2012 for patch management, security auditing and various new features of the system. To begin, patch management is necessary for every organization. Since software is developed by humans, it has errors in its code, consequently the programs have vulnerabilities that can be exploited by hackers (zero-day attacks) or in the best case can be found by researchers. This is why Microsoft releases every period of time new security updates in order to countermeasure flaws of the system. In the case of the server it is recommended to activate the Windows Server Update Services, but every update must be first planned in order to mitigate the risk of a vulnerability. An administrator should know that testing the update is crucial to make sure that it will not generate an incompatibility in the production system. According to Shinder, Diogenes and Shinder (2013) the phases to deploy security updates are: planning, availability for download, obtain the files, create update, test and deploy in production. In addition, the auditing logs are necessary for the administrators to basically monitoring activities and forensic analysis (Microsoft 2015). It is recommended to activate the security auditing for critical information assets of the company. Finally the authors recommend to review new security features of Windows Server 2012, such as Active Directory Federation Services (ADFS), principle of isolation in virtualization, Dynamic Access Control (DAC), SMB 3 encryption, Windows Firewall with Advanced Security, Microsoft Security Essentials, IPsec, port ACLs, bandwidth control, DHCP protection, router advertisement protection and good practices for cloud security. Thirdly, the authors presents the technology of Active Directory Right Management Services. To begin, information is the most important asset of an organization and it is in general the most important objective of a hacker. Windows Server 2012 provides an enhanced feature to protect information disclosure called Active Directory Right Management Services (AD RMS). Moreover, Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 44 the administrator can perform all the best practices and system hardening, but the system could still suffer an attack. Enabling AD RMS in Windows Server 2012 will help to prevent information disclosure, even if the network, operating system and application have been compromised. (Shinder, Diogenes and Shinder 2013). Furthermore, AD RMS applies a high level of access control list to the document. WikiLeaks is an example of how private information of a company can end in the wrong hands. In general the majority of information for WikiLeaks was accessed by personal with not high privileges. This vulnerability in general takes place when the administrator works with permissions in nested groups, which leads to misunderstanding with the real permissions that are being established, so a better way to make sure that a user should be granted to information access is the AD RMS. The AD RMS assigns permissions at a document level instead in the file level, so when an administrator sets restrictions at the document level, all the shared permissions at a file level will not be considered. Also the document can be forbidden to be read out of the domain and the permissions can be granular, such as just read, but not copy or modify. In addition, this feature can be applied in the cloud and will check access in Office, Exchange and SharePoint (Shinder, Diogenes and Shinder 2013). Since AD RMS works in cooperation with exchange, it can check if a user is allowed to send sensitive information, so if it is permitted, when someone receives the message, the receptor can only open the document if first it is available an AD RMS to approve it, then it will be allowed or denied. Consequently, if an internal attacker finds the way to copy critical information of the organization to an external storage, he will not be able to open it if he does not have the permission (Thomas 2010). In addition, the deployment of AD RMS needs some general considerations. First it is needed one AD RMS per forest in the Active Directory network and also it is recommended to have a cluster of this servers to assure availability of the service. Also, the server should have a hardware dedicated only to AD RMS, this is to prevent the mix of server roles. (Shinder, Diogenes and Shinder 2013). 5. Third Party, protection for Windows Server 2012 Firstly, the authors analysed that a suitable protection mechanism for Windows Server 2012 is an Endpoint Protection Platform. To begin, the leaders in the market according to Gartner (2014) in the Magic Quadrant for Endpoint Protection Platforms are McAfee, Kaspersky, Symantec, Trend Micro and Sophos because of its completeness of vision and the ability to execute as it is shown in Figure 2. McAfee and Kaspersky give a good approach to Endpoint Security but they do not have a product directly oriented to server security. They provide a software solution for business or enterprises in general (McAfee 2015; Kaspersky 2015). On the other hand, Symantec, Trend Micro and Sophos provide a solution to secure servers, but each one has a different approach to secure the IT environment. Trend Micro is very strong in the field of cloud and virtualization security with its product Cloud and data center security (Trend Micro 2015). Sophos with its product Server Protection is adequate for malware and virtual environments, but it is not cloud security oriented (Sophos 2015). Symantec with its product Critical System Protection provides a holistic analysis Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 45 including protection to virtual systems, cloud, HIPS/HIDS and Active Directory integration (Symantec 2015). Moreover, in the report of Gartner 2013 on March 27th of 2013 Symantec got the best position in the Magic Quadrant for Endpoint Protection Platforms (Gartner 2013) and for the report on January 8th of 2014 Symantec maintains as one of the leaders in the Magic Quadrant for Endpoint Protection Platforms. Consequently, the authors has chosen Symantec for its analysis because of the advantages that the product provides. Figure 2. Leaders in the Gartner Magic Quadrant for Endpoint Protection Platforms (Gartner 2014). Secondly, the Symantec Critical System Protection is a server oriented solution. To begin, Symantec will allow to maintain a centralized security policy administration since the solution integrates with the Active Directory of Windows Server 2012 (Symantec 2015). In addition, Symantec provides technology for security prevention. The first point of security will be the HIDS/HIPS included in the solution. Also, it is provided a memory control to prevent attacks, which will protect from possible vulnerabilities of the system. A host firewall is also included to control network connections to the server. Finally, a technology called Process Access Control provides control over running process, which will allow to do an in deep intrusion prevention action (Symantec 2015). In addition, Symantec offers features to perform countermeasures under attacks. In the case of an attack, it provides prevention policies, which will use premade functions and will work in coordination with the HIDS and HIPS policies. Also, it is provided a lock down configuration in order to preserve the server's security in terms of confidentiality, integrity and availability. Thirdly, Symantec solution protects virtual environments, manage patching and support security compliances. To begin, the solution provides good practices for vSphere hardening, which is the main administration structure of a virtual system using VMware. Consequently, it provides security Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 46 at the levels of server management (VMware vCenter™ management server protection), hypervisor (VMware ESX® and VMware ESXi™ hypervisor protection), which runs the virtual servers and guests (VMware ESX and ESXi guest protection) (Symantec 2015). In addition, patching helps to countermeasure the vulnerabilities of the systems. If the software does not have support anymore it will be a challenge for the IT administrator to protect it and if the applications do have support, the system will be vulnerable during the time needed by the vendor to generate the patch. Symantec gives a solution for these cases providing system hardening, locking of the configuration, and restrictions of system’s behaviour. Finally, Symantec helps to check the state of a policy compliance, such as PCI. It monitors in real time the server activity in order to verify, collect logs and prevent policy violations (Symantec 2015). Finally, even though Symantec is a leader in Endpoint Security Platforms, it presents some opportunities for improvements (Gartner 2014). To begin, Symantec may improve in developing new features like forensic discovering capabilities for better understanding of what happened after an attack and implementing a network-based sandbox to analyse suspicious code and report. In addition, Symantec may improve in current capabilities such us weak proactive security assessment. This in order to inform to the IT security professional ahead of time of possible problems that the system may have. Also, the Control Compliance Suite is not part of the main console of Critical System Protection. This makes it difficult for the administrator because he has to consolidate information from both consoles. Finally, the set of policies for encryption in removable devices is not easy to understand. It is preferred that the IT administrator has a tool which provides an easy and clear configuration in order to secure the systems on the fly and correctly. Table 3 shows a summary of the characteristics of the Symantec security solution for Windows Server 2012. 6. Further research The further research work suggested by the authors recommends to use automatic tools of pen testing in order to confirm that after all the hardening and security of the base system Windows Server 2012, the vulnerabilities does not exist anymore or are mitigated. 7. Conclusions The most common vulnerability or Common Weakness Enumeration (CWE) for Windows Server 2012 is the Permissions, Privileges and Access Control represented by the 25% of the total of vulnerabilities officially recognized and each year it has been increasing its number of vulnerabilities related. The vulnerability is dangerous since it exploits the bad management of access restrictions of the operating system, which will provoke a privilege escalation and enable the attacker to execute malicious code on the victim. Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 47 Table 3. Symantec Critical System Protection (Symantec 2015). Characteristics Description Protects virtual environments: Virtual Systems Cloud Security Features - System hardening Locking of the configuration Restrictions of system’s behaviour Cloud security oriented Security prevention: HIPS/HIDS Active Directory integration - Memory control to prevent attacks Host firewall Process Access Control Premade functions Lock down configuration Capable of using Active Directory configuration policies. Forensic discovering capabilities. Opportunities for improvements Weak proactive security assessment. Consolidate consoles of the solution. Unfriendly policies for encryption in removable devices. The second most common vulnerability for Windows Server 2012 are the Buffer Errors type. This CWE as the Permissions, Privileges and Access Control let the hacker to gain access to perform a remote code execution, but the difference is that Buffer Errors have the flaw of not managing correctly objects in memory provoking the attacker to execute his code. The third most common vulnerability is resource management errors, which the same as Common Weakness Enumeration and Buffer Errors enables the attacker to perform a remote code execution, but this vulnerability exploits the lack of control in manipulating disk, memory or CPU of the server. The forth most common vulnerability is code injection, which is one of the most dangerous since it let the attacker to execute directly malicious code. The first three most common vulnerabilities exploit different flaws looking for a remote code execution. The fifth most common vulnerability is related to input validation problems, which exploits data that is not being checked or sanitized. This vulnerability as the other four enable the attacker to execute malicious code also denial of service and man in the middle attacks. Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 48 The sixth most common vulnerability is leak disclosure, which enables the attacker to obtain sensitive information of the system. This vulnerability does not focus on the remote code execution of malicious code. The seventh most common vulnerability is the CWE numeric errors, which allows to perform a remote code execution like the first five most common vulnerabilities, gain privileges and denial of service. This vulnerability is exploited by the attacker when the system gets errors when handling numbers. The eight most common vulnerability presents instability problems of the state of a resource and enables gain privileges to the attacker. The ninth most common vulnerability is the CWE that does not have a specific classification because its vulnerabilities does not provide enough information to be part of a CWE group. This vulnerability cannot be classified to have a certain type of attack vectors. The tenth most common vulnerability is the path traversal which provokes denial of service to the applications running over Windows Server 2012. 8. Recommendations The security vulnerabilities can be counter measured by applying the updates released by Microsoft, but it is recommended to use a change management policy. It is not a good practice to have automatic updates in the server since they may produce an incompatibility with other software of the system. Also users are suggested to have only the privileges that they require and memory-protection schemes, like non-executable stack/heap configurations. The security approaches recommended by the authors suggest to implement security baseline from Microsoft to check the system based on good security practices, such as ISO 17799 and NIST-800.x. Also, it is recommended to implement the enhanced feature of Microsoft Windows Server 2012 to protect information disclosure called Active Directory Right Management Services (AD RMS). This feature will protect the most important asset of the company, which is the information. It will protect the system even though the base system is compromised since AD RMS applies a high level of access control list to the document. The third party protection solution for Windows Server 2012 recommended by the authors is Symantec with its product Critical System Protection due to holistic analysis including protection to virtual systems, cloud, HIPS/HIDS and Active Directory integration. This vendor offers a server oriented solution, which work in a proactive way having countermeasures under attack and lock down configuration in order to preserve the confidentiality, integrity and availability. Also, Symantec offers a hardening feature for virtual systems using VMware and in the scenario that a system is not supported anymore, such as Windows Xp, Symantec provides a solution to restrict the Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 49 behaviour of the system in case of a known vulnerability. Finally, the authors highlight that the Symantec solution even though is the recommended third party vendor, it has to improve in the following aspects: forensic discovering capabilities, network-based sandbox, proactive security assessment, consolidate consoles of the solution. References: CVE (2015). CVE List Master Copy. [online]. [online]. Last Last accessed 16 March 2015 at: http://cve.mitre.org/cve/cve.html CWE (2015). CWE List. accessed 16 March 2015 at: http://cwe.mitre.org/data/index.html GARTNER (2013). Magic Quadrant for Endpoint Protection Platforms. [online]. Last accessed 21 March 2015 at: http://www.gartner.com/technology/reprints.do?id=1- 1DFHJZW&ct=130102&st=sb GARTNER (2014). Magic Quadrant for Endpoint Protection Platforms. [online]. Last accessed 21 March 2015 at: http://www.gartner.com/technology/reprints.do?id=1- 1P53WTD&ct=140108&st=sb KASPERSKY (2015). Endpoint Security for Business Core. [online]. Last accessed 21 March 2015 at: http://www.kaspersky.co.uk/business-security/endpoint-core#tab=frame-2 MCAFEE (2015). McAfee Complete Endpoint Protection — Enterprise. [online]. Last accessed 21 March 2015 at: http://www.mcafee.com/us/products/complete-endpoint-protection- enterprise.aspx#vt=vtab-Benefits MICROSOFT (2015). Microsoft Security Bulletin. [online]. Last accessed 27 July 2015 at: https://technet.microsoft.com/en-us/security/bulletin/dn602597.aspx MICROSOFT (2015). Windows Server Blog. [online]. Last accessed 15 March 2015 at: http://blogs.technet.com/b/windowsserver/archive/2012/08/01/windows-server-2012released-to-manufacturing.aspx MICROSOFT (2015). Windows Develop Center – Desktop. [online]. Last accessed 16 March 2015 at: http://msdn.microsoft.com/en-us/library/windows/desktop/bb775665(v=vs.85).aspx MICROSOFT (2015). Security TechCenter. [online]. Last accessed 16 March 2015 at: http://technet.microsoft.com/en-us/security/bulletin/ms13-083 MICROSOFT (2015). Download Center. [online]. Last accessed http://www.microsoft.com/en-us/download/details.aspx?id=40408 Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 16 March 2015 at: 50 MICROSOFT (2015). Windows Server 2012 Security Baseline. [online]. Last accessed 17 March 2015 at: http://technet.microsoft.com/en-us/library/jj898542.aspx MICROSOFT (2015). Microsoft Security Assessment Tool 4.0. [online]. Last accessed 17 March 2015 at: http://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=12273 MICROSOFT (2015). Secure Windows Server 2012 R2 and Windows Server 2012. [online]. Last accessed 17 March 2015 at: http://technet.microsoft.com/en-us/library/hh831360.aspx MICROSOFT (2015). Security Auditing Overview. [online]. Last accessed 17 March 2015 at: http://technet.microsoft.com/en-us/library/dn319078.aspx NIST (2015). National Vulnerability Database. [online]. Last accessed 16 April 2015 at: http://web.nvd.nist.gov/view/vuln/search-advanced OFFENSIVE SECURITY (2015). Exploit Database. [online]. Last accessed 16 March 2015 at: http://www.exploit-db.com/search/ OPEN VULNERABILITY AND ASSESSMENT LANGUAGE. (2015). Oval Repository. [online]. Last accessed 16 March 2015 at: http://oval.mitre.org/repository/ SHINDER, Thomas W., DIOGENES, Yuri and SHINDER, Debra Littlejohn (2013). Windows server 2012 security from end to edge and beyond: Architecting, designing, planning, and deploying windows server 2012 security solutions. [online]. Elsevier. at: http://shu.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwY2AwNtIz0EUrE9KMLJIskyy SjM0Tk02SDQ0SLUySQKdppSVbWpqkgC9VQBxjgFTAuwkxMKXmiTLIuLmGOHvoFmeUxk OHNeKTgG1pYG0FrPHFGFiAXeVUAPLTHTc. SOPHOS (2015). Server Protection. [online]. Last accessed 21 March 2015 at: http://www.sophos.com/en-us/medialibrary/PDFs/factsheets/sophos-server-protectiondsna.pdf SYMANTEC (2015). Symantec Critical System Protection. [online]. Last accessed 21 March 2015 at: http://www.symantec.com/critical-system-protection SYMANTEC (2015). Data Sheet: Endpoint Security. [online]. Last accessed 21 March 2015 at:http://www.symantec.com/content/en/us/enterprise/fact_sheets/bcritical_system_protection_ds_21197836-3_1212.en-us.pdf SYMANTEC CORPORATION (2015). Security Response. [online]. Last accessed 21 March 2015 at: http://www.symantec.com/security_response/vulnerability.jsp?bid=62801 Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 51 THOMAS, Orin. (2010). How AD-RMS can stop your organization’s secrets ending up on Wikileaks. [online]. Last accessed 16 March 2015 at: http://windowsitpro.com/blog/how-adrms-can-stop-your-organization-s-secrets-ending-wikileaks TREND MICRO (2015). Cloud and data center security. [online]. Last accessed 21 March 2015 at: http://www.trendmicro.co.uk/enterprise/cloud-data-center-security/ US-CERT (2015). Microsoft Updates for Multiple Vulnerabilities. [online]. Last accessed 16 March 2015 at: http://www.us-cert.gov/ncas/alerts/TA13-288A Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51 Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 http://ingenieria.ute.edu.ec/enfoqueute/ ISSN: 1390‐6542 Recibido (Received): 2015/07/10 Aceptado (Accepted): 2015/09/15 CC BY-NC-ND 3.0 Aplicación de quitosano como biocoagulante en aguas residuales contaminadas con hidrocarburos (Chitosan application as a biocoagulant in wastewater contaminated with hydrocarbons) Juan M. Álava1 Resumen: La contaminación del ambiente en el Ecuador, provocada por la producción, transporte y comercialización de hidrocarburos, requiere mayor investigación en cuanto a nuevas alternativas de tratamiento que utilicen sustancias biodegradables. En este estudio, se utilizó el exoesqueleto de la cola del camarón (Litopenaeus vannamei) para obtener quitosano y luego aplicarlo como biocoagulante a una muestra de agua residual contaminada con residuos hidrocarburíferos. El quitosano producido fue caracterizado por titulación potenciométrica, resultando en un grado de desacetilación (%DD) de 87.18%–93.72% y por viscosimetría 5 5 intrínseca, logrando un peso molecular promedio (g/mol) de 5.2x10 –5.4x10 . La aplicación del quitosano se la realizó en un test de jarras, para lo cual se planteó un diseño factorial k completamente aleatorio 2 , resultando en un efecto estadísticamente significativo para todos los factores estudiados, esto es, pH (inicial), tipo de quitosano y método de agitación, utilizando como variable de respuesta al porcentaje de remoción de turbidez. Como resultado, un pH de 5.5, una dosis de 2 mg(quitosano)/L(muestra) y método de agitación rápido fueron aplicados a una muestra contaminada, disminuyendo la turbidez en 98.19%, la demanda química de oxígeno en 78.17%, el color en un 91.45% e hidrocarburos totales de petróleo en 99.09%. Palabras clave: Test de jarras; exoesqueleto de camarón; clarificación; desacetilación; viscosimetría intrínseca. Abstract: The environment contamination in Ecuador, done by the production, transport and commercialization of hydrocarbons, requires further research regarding new treatment alternatives that use biodegradable substances. In this study, abdominal shrimp shell waste, Litopenaeus vannamei was used to obtain chitosan and then apply it as a biocoagulant to a wastewater sample contaminated with hydrocarbon products. The produced chitosan was characterised by potentiometric titration, resulting in a deacetylation degree (%DD) of 87.18%– 5 93.72% and by intrinsic viscosimetry, obtaining an average molecular weight (g/mol) of 5.2x10 5 –5.4x10 . The application of chitosan was done in a jar test, for which a completely randomised k factorial design 2 was set, resulting in an evident statistically significant effect for all the factor studied, that is, pH (Initial), chitosan type and agitation method, using the turbidity percentage removal as the response variable. As a result, a pH of 5.5, a 2 mg(Chitosan)/L(sample) and a fast agitation method were applied to a contaminated sample reducing the turbidity in 98.19%, the oxygen chemical demand in 78.17%, color in 91.45% and total petroleum hydrocarbon in 99.09%. Keywords: Jar test; shrimp shell; clarification; deacetylation; intrinsic viscosimetry. 1 Universidad Técnica de Manabí, Portoviejo – Ecuador ([email protected]) 53 1. Introducción La contaminación del suelo y principalmente del agua a nivel global por hidrocarburos ha dejado consecuencias negativas para el medioambiente. En ciertos casos de derrames de hidrocarburos, como en West Falmouth, los sedimentos muestran que luego de más de 30 años la presencia de hidrocarburos continúa y continuará indefinidamente (Reddy et al., 2002). El Ecuador, siendo un país petrolero no está alejado de esta realidad y varios incidentes han sido reportados en las diferentes etapas de procesamiento y comercialización del mismo, en donde se muestra el nivel de contaminación que ha dejado como por ejemplo en la costa Ecuatoriana (5-50 mg/l TPH) y que en algunos casos se mantiene presente (Da Ros, 1995). En base a esta problemática, a nivel mundial se han desarrollado mecanismos de remediación de hidrocarburos tanto físicos, químicos electroquímicos, bilógicos, entre otros; siendo el uso de biocoagulantes como el quitosano una alternativa efectiva para remover hidrocarburos y demás contaminantes en los cuerpos de agua producto de la actividad petrolera y diferentes actividades industriales, debido a sus características biodegradables, no tóxicas y biocompatibles (Rodríguez, 2011); (Caldera et al., 2009); (Renault et al., 2009); (Abu Hassan, 2009); (Sastre, Ruiz, Guibal, & Szygula, 2010). Además del valor que representa el camarón como alimento, el residuo del camarón también contiene, entre otros componentes, alrededor de 52% de proteína, 24% de minerales y 18% de quitina, los cuales han sido desechados en el Ecuador, en su mayoría sin darle valor agregado. La quitina es el elemento más abundante en la naturaleza después de la celulosa y el elemento de sostén de los invertebrados y ha sido investigada por más de un siglo, obteniéndose muchos usos que le dan valor agregado como la obtención de quitosano por desacetilación de la quitina (Agulló et al., 2004). En este sentido, el Ecuador es uno de los principales productores de camarón en el mundo ocupando el séptimo lugar y a nivel regional es el primero (Varela, 2011), representando el 25.19% de toda América Latina. Adicionalmente, para el 2013 existió una evolución destacada de las exportaciones con un aumento del 25.63%, pasando de $443,3 millones a 565,8 millones (Banco Central del Ecuador, 2014). El objetivo de este estudio es poder determinar el efecto que tiene el quitosano, pH y método de agitación en el proceso de clarificación de aguas contaminadas con hidrocarburos, además de demostrar la capacidad de remoción del quitosano como agente biocoagulante bajo las mejores condiciones de aplicación a una muestra con altos niveles de contaminación. 2. Metodología 2.1. Obtención de quitosano En el proceso de obtención se utilizó el residuo del empacado de camarón facilitado por la empresa Dufer ubicada en Bahía de Caráquez en la costa Ecuatoriana. El exoesqueleto de cola de camarón fue procesado de acuerdo al diagrama de la Figura 1. con el objeto de remover Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 54 proteínas, minerales, pigmentos y demás impurezas por medios químicos para obtener como producto final la quitina, mediante el método propuesto por Pinelli Saavedra, Toledo Guillen, Esquerra Brauer, Luviano Silva, and Higuera Ciapara (1998). Seguidamente, se utilizaron etapas sucesivas para desacetilar la quitina con NaOH 50% p/p 90˚C por 1.5 h a una proporción solvente:soluto de 50:1 v/p en agitación constante de acuerdo a Yaghobi and Mirzadeh (2004) en presencia de aire atmosférico. Figura 1. Proceso químico de obtención de quitina y quitosano utilizando etapas sucesivas. 2.2. Caracterización de quitosano 2.2.1. Peso molecular promedio (M) Se utilizó el método viscosimétrico, en donde se empleó un viscosímetro capilar Cannon-Fenske 150 Y137 (ASTM D445) con baño termostático a 25 ˚C. En el viscosímetro se corrieron las muestras de quitosano disueltas en ácido acético 0,1 M y cloruro de sodio 0.2 M con diferentes concentraciones, determinando el tiempo de caída de las diluciones de quitosano (t) y una de referencia con nula concentración (to) (Paz et al., 2013) para determinar los parámetros viscosimétricos como se establece en la Tabla 1. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 55 Tabla 1. Datos viscosimétricos utilizados en la determinación del peso molecular promedio por viscosimetría intrínseca. Nombre común Símbolo y ecuación Viscosidad relativa r = / 0 = t / t0 Viscosidad específica sp = r – 1 = ( - 0) / 0 = t - t0 / t0 Viscosidad reducida red = sp / C Viscosidad inherente red = (lnr) / C Viscosidad intrínseca []= (sp / C)C=0 = [(lnred) / C] C=0 Los parámetros citados se emplearon para la determinación de la viscosidad intrínseca [ ] mediante el método gráfico, empleando la ecuación de Huggings (Ec. 1). sp/C = [] + K[] C 2 Ec. 1 Esta fórmula relaciona la viscosidad reducida (sp / C) con la concentración del polímero y se utiliza para determinar el peso molecular promedio (M) de acuerdo a la ecuación de Mark-HouwinkSakurada (Ec. 2). = KM a Ec. 2 En donde las constantes de la ecuación para tal medio son: K=1.81x10-3 cm3g y = 0.93 de acuerdo a Roberts and Domszy (1982) 2.2.2. Grado de desacetilación %DD Para el ensayo se disolvieron 0.2 g de quitosano seco en 20 cm3 de ácido clorhídrico 0.1 M y 25 cm3 de agua desionizada, se los dejó en agitación continua por 30 minutos y luego se agregó 25 cm3 más de agua y se agitó por 30 minutos más. Una vez que el quitosano se disolvió completamente se procedió a titular la solución con hidróxido de sodio, con una concentración de 0.1 M, utilizando una micropipeta Eppendorf (1000 l) añadiendo 500 l de NaOH cada vez y anotando el cambio en el pH con un potenciómetro con electrodo de vidrio marca OAKTON pH 700. Una vez alcanzado un pH de alrededor de 11, se tabularon los resultados en una hoja de cálculo para ver el comportamiento del pH y su derivada en función del volumen de NaOH utilizado; mediante este gráfico se determinaron los puntos de inflexión (V1 y V2) (CzechowskaBiskup, Jarosińska, Rokita, Ulański, & Rosiak, 2012). El grado de desacetilación %DD se calculó usando la fórmula: %DD = 2.03 . [(V1 – V2) / (m + 0.0042 . (V2 –V1)] Ec. 3 En donde: m = masa de la muestra (g) V1, V2 = Volúmenes de la solución de hidróxido de sodio 0.1 mol/dm3 correspondientes a los puntos de deflexión. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 56 2.03 = Es el coeficiente resultante del peso molecular de la unidad de monómero de la quitina. 0.0042 = Coeficiente resultante de la diferencia entre el peso molecular de la unidades de los monómeros de quitina y quitosano. 2.3. Caracterización del agua contaminada con derivados petroleros Las muestras de agua contaminada fueron proporcionadas por una estación de servicio de la ciudad de Portoviejo en Manabí. Para el diseño experimental se recogió muestra suficiente para llevar a cabo los 32 experimentos. Las muestras se tomaron de la primera de las tres trampas de grasa que recolecta los residuos líquidos resultantes del expendio de los derivados del petróleo antes de ser eliminada por los gestores ambientales. En lo que respecta al procedimiento de toma de muestras, para realizar análisis de TPH en el laboratorio acreditado, se siguió la norma NTE INEN 2 169:98 (Agua, calidad de agua, muestreo, manejo y conservación de muestras). Adicionalmente, en el laboratorio de Aguas y Medio Ambiente de la Universidad Técnica de Manabí se realizaron las pruebas de: turbidez (NTU) en un turbidímetro marca HACH, demanda química de oxígeno DQO (mg/l)(Método del dicromato de potasio) y color (Unidades PtCo)(Método estándar Platino-Cobalto) en un espectrofotómetro UV-Vis marca HACH 2700. Adicionalmente, se procedió a enviar muestra suficiente al laboratorio acreditado Grupo Químico Marcos para la determinación de Hidrocarburos Totales de Petróleo, Cromo, Vanadio, Bario y Plomo. 2.4. Aplicación de quitosano en la muestra contaminada 2.4.1. Preparación de soluciones de quitosano El quitosano obtenido fue disuelto en ácido acético 0.1M en agitación constante por 24h a temperatura ambiente para obtener una solución de quitosano al 0,5% aproximadamente, la cual fue filtrada con el propósito de eliminar cualquier material insoluble (Paz et al., 2012). El quitosano se aplicó con micropipetas marca Eppendorf (1000 l, 200 l y 20 l) en la prueba de jarras. 2.4.2. Proceso de clarificación de muestras contaminadas Este proceso consta de dos etapas: primero, se planteó un diseño experimental (DOE) utilizando una muestra (Mc1) con el objeto de determinar las variables que influyen en el proceso de clarificación y a su vez establecer un modelo de comportamiento estadístico de las variables evaluadas en función de el porcentaje de remoción de turbiedad. Seguidamente, estos resultados se emplearon para clarificar una muestra con altos niveles de contaminación (Mc2) la cual fue caracterizada antes y después del tratamiento en turbiedad, DQO, color, TPH y metales pesados. 2.4.3.1. Planteamiento del diseño experimental Se planteó un diseño experimental completo, aleatorio, de dos niveles (Tabla 2), con el objeto de Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 57 evaluar el efecto que tienen: el pH de la muestra, el tipo de quitosano empleado y el método de agitación del test de jarras en el proceso de clarificación de la muestra utilizada. Este proceso se lo realizó en un test de jarras, teniendo como variable de respuesta al porcentaje de remoción de turbiedad para un volumen de muestra de 1 L. Tabla 2. Factores evaluados para el proceso de clarificación de la muestra Mc1. Factores Nivel Nivel Réplicas Tratamientos Variable de respuesta + Totales pH (X1) 5.5 7.5 3 32 Porcentaje de remoción de turbidez % Tipo de Quitosano (X2) Q1 Q2 Método de agitación (X3) M1 M2 Tanto el diseño experimental como el análisis estadístico fueron desarrollados en el paquete estadístico JMP (9.0.1; 2010 SAS Institute Inc.). En la Tabla 3 se muestra el patrón de diseño a seguir, establecido por el programa con los respectivos niveles de variación. Tabla 3. Patrón de diseño experimental, evaluación de factores en el proceso de clarificación Patrón de Tipo de Quitosano Método de Agitación pH (X1) tratamiento (X2) (X3) +11 7.5 Q1 M1 +12 7.5 Q1 M2 +21 7.5 Q2 M1 +22 7.5 Q2 M2 -11 5.5 Q1 M1 -12 5.5 Q1 M2 -21 5.5 Q2 M1 -22 5.5 Q2 M2 Donde el método de agitación M1 se dio en las etapas rápida a 250 rpm por 5 min. y lenta a 40 rpm por 20 min. con un tiempo de reposo de 30 min. Mientras que el método de agitación M2 tuvo una etapa rápida a 150 rpm por 7 min. y lenta a 25 rpm por 30 min. con un tiempo de reposo de 30 min. 2.4.3.2. Determinación de la dosis óptima de quitosano Se utilizó un equipo de Prueba de Jarras marca Phipps & Bird de cuatro posiciones para llevar a cabo el proceso de clarificación de la muestra contaminada. Inicialmente, se probaron concentraciones de 0.2, 0.4, 0.6 y 0.8 mg/L, para la muestra Mc1, obteniéndose el mejor resultado para la dosis de 0.8 mg/L. Mientras que para la muestra Mc2 las dosis probadas fueron de 0.5, 1, 1.5 y 2 mg/L resultando la dosis de 2 mg/L la mejor dosis. 2.4.3.3. Tratamiento de agua residual contaminada con derivados del petróleo Se caracterizó la muestra Mc2 antes y después del tratamiento en el laboratorio de Aguas y Medioambiente de la UTM y enviando muestras a el laboratorio acreditado Grupo Químico Marcos. Utilizando los resultados del análisis estadístico, se plantearon las mejores condiciones Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 58 para el proceso de clarificación de esta muestra, es decir, pH 5.5, quitosano Q2 y método de agitación M1. El proceso se lo realizó en el test de jarras por triplicado utilizando un volumen de 2L y una concentración de quitosano de 2 mg/L como se explica en la Figura 2. A B C D Figura 2. Proceso de clarificación de la muestra Mc2 contaminada con derivados del petróleo. En donde A revela el estado de la muestra desde la fuente de origen, B el nivel cualitativo de contaminación antes del tratamiento con quitosano, C clarificación de la muestra contaminada después del tratamiento y D se observan los flóculos flotantes formados en el proceso de clarificación. 3. Resultados 3.1. Rendimientos en la obtención de quitosano La Figura 3 representa las cantidades promedio extraídas en masa de proteínas 53.1% y minerales 24.5% además de destacar el contenido de quitina 21.1% y de quitosano 16.1% con respecto a la materia prima utilizada y en comparación con lo establecido por Agulló et al. (2004). Figura 3. Contenido másico porcentual de proteínas, minerales, quitina y quitosano presentes en la muestra de cáscara de cola de camarón estudiada (base seca). Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 59 3.2. Caracterización del quitosano obtenido En la Tabla 4 se muestran los datos obtenidos para calcular el porcentaje de desacetilación (%DD) por el método de titulación potenciométrica y el peso molecular promedio (Mv) por viscosimetría intrínseca, para los dos tipos de quitosano Q1 y Q2. Tabla 4. Datos de ensayos de caracterización del quitosano %DD y Mv. Ensayo Unidades Q1 Q2 %DD 87.18% 93.72% Masa de quitosano g 0.2004 0.2008 Volumen de inflección V1 ml 10 10 ml 20.5 21.5 Mv (g/mol) 5.2E+05 5.4E+05 ml/g 377.9 391.25 58818 56392 0.4 0.3 0.9813 0.9748 Titulación Potenciométrica 1 Volumen de inflección V2 Número de Viscosidad Limitante (LVN) Viscosidad Intrínseca 2 Valor de la pendiente Constante K R 1 2 2 Los reactivos utilizados fueron de grado analítico marca Merck con autorización de compra por parte del CONSEP. Todas las soluciones utilizadas fueron estandarizadas con sustancias patrones por triplicado. 3.2. Tratamiento de la muestra contaminada con quitosano 3.2.1. Remoción de turbidez Los resultados del diseño experimental se presentan en la Figura 4, en donde la turbiedad final está en NTU para cada patrón de tratamiento con sus respectivas réplicas, para una muestra Mc1 con 80.3 NTU de turbidez. Figura 4. Turbidez final y dispersión de los resultados en función del patrón de tratamiento, destacando (-11) con menor turbidez final donde “–“ es (pH 5.5), “1” (Q1) y “1” (M1). Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 60 3.2.1. Ajuste por mínimos cuadrados El modelo de comportamiento de las variables estudiadas (Figura 5) presenta una correlación lineal con un R2=0.94 y un factor de probabilidad de P<0.0001 lo que indica que el modelo se ajusta de buena manera y que por lo menos existe un factor de regresión estadísticamente significante para dicho modelo. Figura 5. Ajuste por mínimos cuadrados para datos reales vs. Modelado para cada patrón de tratamiento. Seguidamente, en la Tabla 5 se presenta la estimación de parámetros de probabilidad para cada uno de los factores estudiados y sus principales interacciones para los cuales se puede notar un factor de probabilidad P<0.0001 principalmente para el pH, quitosano, y uno de P<0.0032 para el método de agitación, lo que indica el rechazo de la hipótesis nula y la aceptación de que existe una diferencia estadísticamente significativa entre los niveles de los factores estudiados ya que todos los valores se encuentran por debajo del P<0.05. Tabla 5. Estimación de parámetros de modelado con análisis de probabilidad Término Intersección Estimado Std Error t Ratio Prob>|t| 0.9466741 0.0021990 430.4200000 <.0001* Ph (5.5 – 7.5) -0.035837 0.0021990 -16.29 <.0001* Quitosano [Q1] -0.013628 0.0021990 -6.2 <.0001* Método de agitación [M1] 0.0071456 0.0021990 3.25 0.0032* pH*Quitosano [Q1] -0.012402 0.0021990 -5.64 <.0001* Quitosano [Q1]*Método de agitación 0.0128691 0.0021990 [M1] 5.85 <.0001* *Probabilidad del parámetro de tener efecto nulo o cero. Se rechaza la hipótesis nula y se acepta la alternativa. 3.2.1. Tratamiento de muestra contaminada Mc2 Se probó el quitosano en una muestra, con niveles altos de contaminación Mc2 (proporcionada por una estación de servicio para fines de la investigación) y con un volumen mayor (2 L) que el utilizado en el diseño experimental (1 L). Los análisis realizados a la muestra antes y después del Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 61 tratamiento de clarificación con quitosano se presentan en la Tabla 6, en donde se muestra el contenido indetectable de Bario, Cromo, Plomo, Vanadio, de acuerdo al laboratorio acreditado. Tabla 6. Porcentaje de remoción de contaminantes. Parámetro* Valor Inicial Valor Final % Removido Turbidez (NTU) 216 3.92 98.19% DQO (mg/L) 568 124 78.17% pH 8.17 5.51 Adj. Color (Units) 655 56 91.45% TPH (mg/L) 416 3.80 99.09% Bario (mg/L) <0.1 - - Cromo (mg/L) <0.01 - - Plomo (mg/L) <0.05 - - Vanadio (mg/L) <0.05 - - 1 * Análisis realizados en la Universidad Técnica de Manabí y por el laboratorio Grupo Químico Marcos. 1 El pH fue ajustado para lograr los mayores porcentajes de remoción de turbidez de acuerdo al modelo estadístico obtenido. A B Figura 6. Test de jarras aplicando ph 5.5, quitosano Q1 y método de agitación M1 para la muestra Mc2. A Muestra contaminada con derivados petroleros. B Muestra tratada con quitosano usando el modelo estadístico. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 62 3. Discusión Con respecto a la obtención del quitosano, en la Figura 3 se presentan los valores promedio de componentes existentes en la muestra de exoesqueleto de camarón estudiada; ya que en el proceso de desproteinización se removió un 50% de materia para Q1 y 56% para Q2; mientras que la pérdida de masa desde la desproteinización hasta terminar la desmineralización fue de 26% para Q1 y 23 % para Q2; lo que deja como rendimiento en peso para la quitina 23% para Q1 y 19% para Q2. Finalmente, las etapas empleadas en el proceso de desacetilación arrojaron un valor de pérdida de masa de alrededor de 5% por etapa para Q1, mientras que para Q2 fue de alrededor de 1.5% por etapa, dejando como resultado un rendimiento de quitosano en relación a la materia prima de 15.96% para Q1 y de 16.31% para Q2 (base seca) lo que concuerda con estudios relacionados al contenido típico de componentes de la cáscara del camarón (Agulló et al., 2004). Las características principales del quitosano, como son el grado de desacetilación %DD (87% Q1 y 94% Q2) y el peso molecular promedio (5.2x105 Q1 y 5.4x105 Q2), presentaron valores característicos de quitosanos comercializados en la actualidad, lo que permite establecer su calidad. Adicionalmente, el proceso utilizado para obtener estos dos tipos de quitosano variaron únicamente en la proporción solvente:soluto en cada proceso establecido en la Figura 1, valor que fue mayor para el quitosano Q2 que para Q1. En consecuencia, al usar una mayor proporción solvente:soluto, se utilizaron menos etapas de desacetilación para Q2 en comparación con Q1. El modelo de correlación estadístico, presentado en la Figura 5 y detallado en la Tabla 5, presenta evidencia estadísticamente significativa del efecto que tienen los factores estudiados, esto es, pH (P<0.0001), tipo de quitosano (P<0.0001) y método de agitación (P<0.0032), en la variable de respuesta, que es el porcentaje de remoción de turbidez. Seguidamente, con el uso de los datos estadísticos se trató la muestra contaminada Mc2 y se observó la formación de flóculos aglomerados en una fase liviana, atribuyendo este comportamiento a la gran cantidad de hidrocarburos (TPH) presentes en la muestra como se muestra en la imagen D de la Figura 2 y en la imagen B de la Figura 6. Finalmente, se obtuvo una remoción positiva para la turbidez 98.19%, DQO 78.17%, color 91.45%, TPH 99.09%, existiendo una presencia no detectable, por los equipos acreditados del Grupo Químico Marcos, de Bario, Cromo, Plomo y Vanadio (Tabla 6). 4. Conclusiones y Recomendaciones El residuo del empacado de camarón para exportación, así como el proveniente de cualquier otra actividad relacionada, puede ser utilizado en la obtención de quitina y quitosano de muy buena calidad como se presentó en este estudio, dándole un valor comercial a un residuo que constituye un agente contaminante en las zonas de producción del crustáceo en nuestro país. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 63 La metodología utilizada para el uso de quitosano como biocoagulante en la remoción de contaminates de aguas residuales de la comercialización de hidrocarburos, resultó en la determinación del efecto estadístico que tienen los factores estudiados y como consecuencia un modelo estadístico que permitió conocer la mejor combinación aplicación de estos factores para alcanzar la mayor remoción de turbiedad (98%) posible y consigo la remoción de Hidrocarburos Totales de Petróleo (99%) presentes en este tipo de aguas residuales. Se debería establecer un estudio en cuanto a la biorremediación de los lodos formados en el tratamiento del tipo de aguas residuales presentados. En este sentido, un mayor esfuerzo debe destinarse al desarrollo de sustancias de origen natural que puedan utilizarse en el tratamiento de aguas residuales y de consumo con el fin de preservar y garantizar la salud de los seres vivos además de la fauna y flora de nuestro ambiente. Bibliografía Abu Hassan, M. A. a. T., Pei Li and Noor, Zainura Zainon. (2009). Coagulation and flocculation treatment of wastewater in textile industry using chitosan. Journal of Chemical and Natural Resources Engineering., 4(1), pp. 43-53. Agulló, E., Tapia, C., Peniche, C., Heras, Á., Argüelles, W., & Nakamatsu, J. (2004). Fuentes y procesos de obtención. In A. P. d. Abram (Ed.), Quitina y Quitosano: obtención, caracterización y aplicaciones (Primera edición ed., pp. 113). Lima, Perú: Fondo Editorial de la Pontificia Universidad Católica del Perú. Banco Central del Ecuador. (2014). La Economía Ecuatoriana Cerró El Año Con Un Saldo Neto De Usd 1.845,9 Millones, Correspondiente A 2.0% Del Pib. Retrieved from http://www.bce.fin.ec/index.php/boletines-de-prensa-archivo/item/625-la-econom%C3%ADaecuatoriana-tuvo-un-crecimiento-anual-de-45-en-2013. Caldera, Y., Clavel, N., Briceño, D., Nava, A., Gutiérrez, E., & Mármol, Z. (2009). Quitosano como coagulante durante el tratamiento de aguas de producción de petróleo. Boletín del Centro de Investigaciones biológicas, 43, 541-555. Czechowska-Biskup, R., Jarosińska, D., Rokita, B., Ulański, P., & Rosiak, J. M. (2012). Determination of degree of deacetylation of chitosan—comparison of methods. Progress on Chemistry and Application of Chitin and Its Derivatives, 17, 5-20. Da Ros, G. (1995). La contaminación de aguas en Ecuador: una aproximación económica: Editorial Abya Yala. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 64 Paz, N. d. l., Fernández, M., López, O. D., Nogueira, A., García, C. M., Pérez, D., . . . Díaz, D. (2012). Optimización Del Proceso De Obtención De Quitosano Derivada De La Quitina De Langosta. Revista Iberoamericana de Polímeros, 13(3), 103-116. Paz, N. d. l., Pérez, D., Fernández, M., López, O. D., Nogueira, A., Paneque, M. R., . . . García, C. M. (2013). Evaluación Viscosimétrica Del Quitosano Derivado De La Quitina De Langosta. Revista Iberoamericana de Polímeros, 14(2), 84-91. Pinelli Saavedra, A., Toledo Guillen, A. R., Esquerra Brauer, I. R., Luviano Silva, A. R., & Higuera Ciapara, I. (1998). [Methods for extracting chitin from shrimp shell waste]. Arch Latinoam Nutr, 48(1), 58-61. Reddy, C. M., Eglinton, T. I., Hounshell, A., White, H. K., Xu, L., Gaines, R. B., & Frysinger, G. S. (2002). The West Falmouth oil spill after thirty years: the persistence of petroleum hydrocarbons in marsh sediments. Environ Sci Technol, 36(22), 4754-4760. Renault, F., Sancey, B., Charles, J., Morin-Crini, N., Badot, P.-M., Winterton, P., & Crini, G. (2009). Chitosan flocculation of cardboard-mill secondary biological wastewater. Chemical Engineering Journal, 155(3), 775-783. doi:10.1016/j.cej.2009.09.023 Roberts, G. A. F., & Domszy, J. G. (1982). Determination of the viscometric constants for chitosan. International Journal of Biological Macromolecules, 4(6), 374-377. doi:http://dx.doi.org/10.1016/0141-8130(82)90074-5 Rodríguez, Y. (2011). Eficiencia del quitosano como coagulante en el tratamiento del agua asociada a la producción de petróleo. (Master of Science Tesis de grado), Universidad del Zulia, Maracaibo, Venezuela. Retrieved from http://tesis.luz.edu.ve/tde_arquivos/80/TDE2012-04-24T10:02:04Z-2834/Publico/rodriguez_diaz_yim_james.pdf Sastre, R. A. M., Ruiz, P. M., Guibal, E., & Szygula, A. (2010). Aplicación del biopolímero quitosan en la eliminación del color de las aguas residuales mediante el proceso combinado de coagulación-floculación y adsorción: Google Patents. Varela, M. (2011). Procesamiento de camarón para exportación (R6 y R2). Ecuador: Ministerio de Industrias y Productividad MIPYMES - FLACSO Ecuador. Retrieved from https://www.flacso.org.ec/portal/pnTemp/PageMaster/v1h0ohbg78sb6mncmkkr5w3mwji4ep. pdf. Yaghobi, N., & Mirzadeh, H. (2004). Enhancement of chitin's degree of deacetylation by multistage alkali treatments. Iranian Polymer Journal, 131-136. Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64 Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/07/24 Aceptado (Accepted): 2015/09/15 CC BY-NC-ND 3.0 Dosificación mínima del reactivo Fenton para la remediación de agua contaminada con colorantes (Fenton's reagent minimum dosage for remediation of water contaminated with dyes) Gina Terán1, Paola Posligua1, Carlos Banchón1 Resumen: Efluentes de la industria textil no solo representan un riesgo latente para la biodiversidad en nuestro planeta sino también para el ser humano debido a la contaminación generada por colorantes industriales. En el presente estudio se evaluó un proceso Fenton para la decoloración de agua contaminada con amarillo 160, azul 81 y rojo 190 con una concentración -1 -1 inicial de 3300 mg.L y una demanda química de oxígeno de 1719 mg O2.L . Cambios de pH y dosis molares de sulfato ferroso y peróxido de hidrógeno fueron evaluados. El proceso Fenton permitió un 99,9% de remoción de materia orgánica y 100% de remoción de turbidez cuando se +2 trabajó con pH de 3,5 y dosis molar Fe /H2O2 entre 1:3 y 1:5. Mediante un barrido espectrofotométrico y medición del potencial de oxido-reducción, se demostró que la calidad del agua descontaminada se asemejó a la del agua ultrapura tipo I. Palabras clave: colorantes azoicos; potencial de oxido-reducción; Pelileo; industria textil Abstract: Effluents from the textile industry not only represent a latent threat to biodiversity on our planet but also to humans due to the pollution generated by industrial dyes. In this study a Fenton process was evaluated for the decoloration of water contaminated with yellow 160, blue 81 and -1 red 190 with an initial concentration of 3300 mg.L and a chemical oxygen demand of 1719 -1 mg.L . Changes in pH and molar doses of ferrous sulfate and hydrogen peroxide were evaluated. The Fenton process allowed 99,9% removal of organic matter and 100% removal of +2 turbidity when it worked at pH 3,5 and molar dose Fe / H2O2 between 1:3 and 1:5. By spectrophotometric scanning and measurement of redox potential, it was shown that the quality of decontaminated water resembled the ultrapure water type I. Keywords: azoic dyes; oxidation-reduction potential; Pelileo; textile industry 1. Introducción El Programa de las Naciones Unidas para el Medio Ambiente estableció que la industria a nivel mundial es responsable de descargar entre 300 a 500 millones de toneladas anuales de efluentes con metales pesados, lodos y colorantes en cuerpos de agua (Roy Choudhury, 2013). En la industria textil, se han reportado consumos anuales de alrededor de 7x105 ton de colorantes y consumos de agua de hasta 150 L por cada kg de producto textil (Körbahti y Tanyolaç, 2008; Eslami, A., Moradi, M., Ghanbari, F., & Mehdipour, F., 2013; Garcés y Hernández, 2012; Bouasla, 2012; Bahmami, Rezaei, Esrafili, Gholami y Jonidi, 2013). Se estima que de la cantidad utilizada 1 Universidad de Las Américas, Quito – Ecuador ( {gteran, paola.posligua, c.banchon} @udlanet.ec ) 66 de colorantes en la industria textil, aproximadamente se desperdicia hasta un 15% de colorantes en efluentes (Daud, Akpan, y Hameed, 2012; Cui, Li, Zhao y Han, 2014); en Malasia el 22% del volumen total de aguas residuales corresponde a la industria textil (Daud, Akpan, y Hameed, 2012). Con respecto al impacto ambiental, del total de colorantes azoicos, 3000 están catalogados como cancerígenos y mutagénicos, debido a su descomposición en aminas aromáticas (GrekovaVasileva y Topalova, 2009; Lau et al., 2014). A nivel local, un escenario de contaminación es el efluente descargado por la industria textil en los afluentes del río Patate en el cantón Pelileo (Ambato-Ecuador), cauce donde se reportó una demanda bioquímica de oxígeno de 450 mg.L-1, una demanda química de oxígeno de 880 mg.L-1 y con coloración azul intensa (El Telégrafo, 2009). Se estima que aproximadamente 44 lavanderías de jeans en Pelileo consumen aproximadamente hasta 30 L.s-1 de agua para la producción diaria de textiles (El Telégrafo, 2013). A la fecha, en Ecuador, no se han reportado acciones de remediación a gran escala que aporten con la solución de esta problemática. Entre las tecnologías de remediación de efluentes industriales, las más comunes son coagulaciónfloculación, coagulación con extractos de plantas, electrocoagulación, adsorción y tratamientos biológicos (Barbusiński, 2005; Moreno, Figueroa y Hormaza, 2013; Gaber, Abu Ghalwa, Khedr, y Salem, 2013; Cui, Li, Zhao y Han, 2014; Revelo, Proaño, y Banchón, 2015). El proceso Fenton se destaca porque éste oxida completamente residuos colorantes; otras tecnologías como las biológicas, generan oxidaciones incompletas de los colorantes, es decir producen compuestos orgánicos intermediarios con potencial tóxico para el medio ambiente. Desde su descubrimiento en 1890 por Henry John Horstman Fenton, el reactivo Fenton -peróxido de hidrógeno y hierro como catalizador- es capaz de oxidar compuestos alifáticos y aromáticos halogenados, nitroaromáticos, colorantes azo, fenoles halogenados, formaldehído, herbicidas y hexadecano (Litter, Domènech, y Jardim, 2001). El proceso de Fenton también es aplicable para aguas residuales de la industria alimenticia; por ejemplo a escala piloto se utilizó la reacción de Fenton para aguas contaminadas con tartrazina con eficiencias de remoción de hasta el 99% (Rojas, Giraldo y Trujillo, 2009). Se han reportado procesos de oxidación avanzada donde se potencia la reacción Fenton con energía ultravioleta. Por ejemplo, en el tratamiento de aguas residuales contaminadas con naranja 2, rojo ácido 151, naranja ácido 7, rojo 88 y azul ácido 113 se alcanzaron porcentajes de remediación próximos a 100 en tiempos de reacción de hasta 60 minutos (Riaza Frutos, Manzano, & Quiroga, 2007; Ohura, Harada, Shiki, Kawakita y Biswas, 2012). En Ecuador, se ha empleado el proceso Fenton para el tratamiento de suelos contaminados con hidrocarburos en Nueva Loja (Villacreces, 2013). Sin embargo, la aplicación de este proceso para el tratamiento de aguas residuales industriales no se ha difundido completamente a pesar de ser una técnica altamente efectiva y de bajo consumo de energía. A pesar del avance de la tecnología y de la modernización de la sociedad, el impacto ambiental y la contaminación generada por la Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 67 actividad textilera es persistente. A causa de esto, se planteó en el presente trabajo el objetivo de evaluar las condiciones operacionales de un proceso Fenton para la oxidación de los colorantes reactivos amarillo 160, azul 81 y rojo 190, de aplicación industrial. En la presente investigación se experimentaron las condiciones mínimas y óptimas para la futura aplicación del proceso Fenton en el tratamiento de aguas residuales provenientes de actividades textileras artesanales. 2. Metodología 2.1. Parámetros de caracterización físico-química del agua Las muestras de agua contaminada que se utilizaron en el presente estudio se prepararon con los colorantes azoicos reactivos industriales amarillo 160, azul 81 y rojo 190 provistos por Aromcolor S.A. (Quito, Ecuador). Estos colorantes se agregaron a 500 mL de agua destilada hasta obtener una concentración final de 3300 mg.L-1; es decir, la concentración de cada colorante azoico en el agua fue de 1100 mg.L-1. La turbidez (NTU) fue medida mediante nefelometría (HANNA instrument, HI 88713, USA). El pH y el potencial de oxido-reducción (ORP) fueron medidos en un potenciómetro con electrodos de vidrio-platino (HANNA Instruments, HI 2550, HI 3131, USA). La demanda química de oxígeno (DQO) en mg O2.L-1 fue determinada mediante espectrofotometría UV-VIS a 620 nm mediante el decrecimiento de la concentración de cromato luego de la oxidación de la materia orgánica con dicromato (VII) de potasio, ácido sulfúrico, y sulfato de plata-mercurio (Nanocolor, MachereyNagel COD Ref. 985 023, Alemania). La absorbancia en un rango de 190 a 1100 nm y el color fueron medidos en un espectrofotómetro UV-Vis (Nanocolor II, Macherey-Nagel, Alemania). La medida del color en el espectrofotómetro fue dada en unidades CIE L*a*b* (según la Comisión Internacional de la Iluminación); estas unidades fueron transformadas a formato RGB (red, green, blue) mediante el software de libre acceso EasyRGB (colour calculator, http://www.easyrgb.com/). 2.2. Índice del potencial de óxido-reducción Se evaluó la calidad de remoción de colorantes del agua tratada a través de la relación entre el ORP del agua tratada y el ORP del agua pura tipo I. A esta relación se la denominó índice del potencial de oxido-reducción. 2.3. Proceso Fenton El proceso Fenton se llevó a cabo en un equipo para prueba de jarras (Velp scientific, JLTG, España) a una velocidad de 300 rpm y tiempo de mezcla de 45 minutos. Se utilizaron volúmenes de agua residual sintética de 250 mL y la temperatura inicial de todas las muestras fue de 40°C. Todas las muestras se expusieron a una luminosidad de 30397.33 lux entre 3 a 24 horas. La luminosidad fue medida en un luxómetro (Sper scientific, 850007, U.S.A). Las muestras se filtraron en una bomba de vacío (Gast Manufacturing, DOA-P704 shown, U.S.A, 2002) y papel filtrante de Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 68 0,5 μm (Microclar, Argentina). Finalmente, las muestras fueron caracterizadas según los parámetros físico-químicos antes descritos. El pH inicial fue modificado según los respectivos diseños experimentales con ácido sulfúrico e hidróxido de sodio. 2.4. Dosificación del reactivo Fenton Para el cálculo estequiométrico del volumen de H2O2 a adicionar al medio de reacción fue necesario determinar el DQO inicial del agua contaminada (Eslami, A., Moradi, M., Ghanbari, F., y Mehdipour, F., 2013). Según la caracterización del agua residual, el DQO inicial tuvo un valor de 1719 mg.L-1. A partir de este dato de DQO, según Rodríguez (2010), se obtuvo que por cada litro de agua residual se adicionó 12,174 mL de peróxido de hidrógeno al 30%. Las unidades experimentales en el presente proyecto fueron de 250 mL; por tanto, se adicionaron 3,04 mL de peróxido de hidrógeno al 30% por cada unidad experimental. La dosificación de sulfato ferroso heptahidratado fue calculada en un rango molar Fe+2/H2O2 de 1:1 a 1:80. En la Figura 1 se observan las dosis másicas de sulfato de hierro (II) a adicionarse para cada relación molar. Figura 1. Relaciones molares Fenton entre 1:1 hasta 1:80 según diseño experimental exploratorio y cantidades de sulfato ferroso a adicionar por cada 3,04 mL de peróxido de hidrógeno al 30% a 250 mL de agua residual sintética. 2.5. Diseño experimental exploratorio En el presente estudio se desarrolló un diseño experimental exploratorio (DEE) para determinar la dosis molar óptima del reactivo Fenton en función del cambio de color y cambio de potencial de oxido-reducción (ORP). El DEE se utilizó para la evaluación de la influencia de las variables operacionales (dosis de reactivo Fenton y pH). En la Figura 2A, se presenta el DEE en donde X1 representa la dosis de reactivo Fenton, X2 el pH inicial y la respuesta representada por y (cambio Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 69 de ORP, cambio de color). En la Figura 2B, de los resultados del primer diseño experimental se seleccionaron los mejores rangos de dosificación para luego optimizar el proceso Fenton. En la optimización se combinaron las tres variables independientes. Donde, X3 dosis de reactivo Fenton, X4 pH inicial, X5 tiempo de reposo, versus la respuesta y’ (cambio de ORP, cambio de color). Figura 2. Diseño experimental exploratorio (A) para la búsqueda de dosis del reactivo Fenton para la decoloración del agua contaminada y Diseño experimental exploratorio (B) para la optimización de la dosificación del reactivo Fenton. 3. Resultados Todos los resultados obtenidos de los respectivos tratamientos se basaron en cálculos estequiométricos tomando en cuenta un DQO del agua residual de 1719 mg O2.L-1. El estudio del proceso de remediación tuvo como primer objetivo evaluar las condiciones de pH inicial del agua contaminada, así como la dosificación a diferentes rangos del reactivo Fenton en función del ORP (Figura 3). Con propósitos de comparación, en la Figura 3 se presentan los valores de ORP del agua tipo I (124,4 mV) y del agua residual sintética (224,4 mV). Según el diseño experimental exploratorio desarrollado para el presente trabajo, se propone una sucesión en cadena de experimentos que tiene como propósito la evaluación de las condiciones óptimas de remediación. Es así que, según los resultados de la Figura 3, se prosiguió a experimentar con dosis molares entre 1:3 a 1:10, puesto que la dosis molar 1:5 fue la que permitió que el agua tratada se asemeje en su potencial de óxido-reducción al agua pura tipo I. Para corroborar la eficacia de las dosis molares, además se midió la absorbancia y el color del agua tratada mediante espectrofotometría. Por lo tanto, se evaluó la reacción Fenton a diferentes pH a dosis óptimas entre 1:3 a 1:10 (Figura 4). Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 70 Figura 3. Mediciones del potencial de oxido-reducción (ORP) para agua residual sintética, agua ultrapura tipo I y muestras de agua tratada con dosis molares de Fenton entre 1:1 hasta 1:80. En donde, (▲) muestras tratadas a pH inicial ácido, (●) muestras tratadas a pH inicial neutro y (◼︎) muestras tratadas a pH inicial básico. Figura 4. Mediciones del potencial de oxido-reducción (ORP) para agua residual sintética (Blanco), agua ultrapura tipo I (Agua pura) y muestras de agua tratada con dosis molares de Fenton entre 1:1 hasta 1:10 a pH inicial ácido, básico y neutro. De acuerdo con los resultados obtenidos en la Figura 4 sobre el cambio de ORP y el análisis colorimétrico de las muestras de agua tratada (Tabla 1), se comprobó que la mejor dosis fue la relación molar Fe+2/H2O2 1:3 a un pH inicial de 3,5. Un análisis espectrofotométrico también Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 71 comprueba la decoloración del agua residual sintética bajo estas condiciones al compararse los barridos de absorbancia de muestras de agua pura tipo I, agua contaminada y tratada mediante Fenton (Figura 5). Según los resultados de las figuras 3 y 4, el pH inicial del agua contaminada que dio óptimos resultados en función del índice ORP fue 3,5 en concordancia con otros autores (Benatti, C. T., & Tavares, C. R. G., 2012; Bouasla, C., Ismail, F., & Samar, M. E.-H., 2012; Daud, N. K., Akpan, U. G., & Hameed, B. H., 2012; Patel & Patel, 2013). Tabla 1. Mediciones de color en unidades CIE L*a*b para los tratamientos a dosis molares entre 1:1 hasta 1:80 a pH 3,5 y 24 horas como tiempo de reposo, color del agua residual y color del agua pura tipo I. Muestra L a b Agua residual 0,4 1,6 0,4 Agua pura tipo I 100 0 0 Tratamiento 1:1 92,9 5,9 19,2 Tratamiento 1:3 99,4 0 2,1 Tratamiento 1:5 97,7 0,7 1,1 Tratamiento 1:7 98,3 0,5 1,8 Tratamiento 1:10 95,2 0,1 0,7 Tratamiento 1:15 99,8 0 1,4 Tratamiento 1:20 99,5 0 3,1 Tratamiento 1:25 99,6 0,1 1,3 Tratamiento 1:30 99,9 0,1 1,8 Tratamiento 1:40 99,6 0,1 0,6 Tratamiento 1:50 95 0 0,9 Tratamiento 1:60 98,7 0,5 2,4 Tratamiento 1:70 97,6 1,1 4,6 Tratamiento 1:80 98,7 0,7 2,3 Se experimentó la reacción Fenton a pH inicial 3,5 y relación molar 1:3, además de tratamientos químicos de oxidación con hipoclorito sódico 5% y peróxido de hidrógeno al 30% con propósitos comparativos. En la Figura 6 se observan los resultados de las mediciones del DQO, turbidez y ORP antes y después del respectivo tratamiento. En la Figura 5 también se comparan estos tratamientos con la medición de la absorbancia en rangos de longitud de onda entre 190-1100 nm. 4. Discusión Según la Figura 8, la dosis molar óptima de Fe+2/H2O2 fue 1:5 (414 mg FeSO4 por cada 3,04 mL de H2O2 30%), pues ésta decoloró al agua contaminada (pH inicial 3,5) hasta llegar a un ORP similar al del agua pura; mientras que, aunque sí hubo una decoloración a dosis molares mayores que 1:10, la dosis 1:5 fue la mínima que permitió obtener un potencial de oxido-reducción similar al del agua tipo I. El ion ferroso al tener su rol de catalizador y reactivo limitante, su concentración debe ser la óptima en relación al peróxido de hidrógeno para la producción de los radicales hidroxilos (Bouasla, C., Ismail, F., y Samar, M. E.-H. 2012). A partir de los resultados experimentales obtenidos en la Figura 8, se experimentó con dosis entre 1:3 hasta 1:10 para Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 72 comprobar si existe una dosis molar óptima todavía menor que 1:5 (Figura 9), tomando en cuenta que el pH controla la calidad de la reacción de oxidación. Figura 5. Absorbancia de muestras de agua pura tipo I, agua residual sintética, agua residual tratada con Cloro (hipoclorito de sodio 5%), con Peróxido (peróxido de hidrógeno al 30%) y Fenton a dosis molar 1:3 pH 3,5 y 24 horas de reposo, rango de longitud de onda 190-1100 nm. Figura 6. Caracterización físico-química (ORP, turbidez y DQO) del agua tratada mediante tres métodos: Fenton a dosis molar 1:3 pH 3,5 y 24 horas de reposo, Cloro (hipoclorito de sodio 5%), Peróxido (peróxido de hidrógeno al 30%). Según la reacción (1), la acción catalizadora del ion ferroso produce la descomposición del peróxido de hidrógeno hasta la formación de radicales hidroxilos (OH●), los cuales son responsables de la decoloración del agua contaminada: (1) Fe+2 + H2O2 → Fe+3 + OH- + OH● Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 73 La producción de radicales hidroxilos se ve afectada por el pH del medio y la concentración de peróxido de hidrógeno: conforme el pH tiende a la acidez, a mayor concentración de peróxido de hidrógeno la producción de radicales hidroxilos aumenta. Sin embargo, según los resultados experimentales (Figura 8) y revisión bibliográfica, altos volúmenes de peróxido de hidrógeno no aseguran la alta generación de radicales hidroxilos si acaso no se cumple la relación estequiométrica óptima con el ion ferroso (Bouasla, C., Ismail, F., y Samar, M. E.-H., 2012; Domínguez, J. R., Muñoz, M. J., Palo, P., González, T., Peres, J. A., y Cuerda-Correa, E. M., 2014). Es de notar que excesos de radicales hidroxilos (OH●) tienden a seguir oxidando iones ferrosos que no reaccionaron, promoviendo la formación de complejos de hidróxidos férricos: (2) OH● + Fe+2 → OH- + Fe+3 Cabe mencionar también que aunque se acidificó el medio con ácido sulfúrico, no obstante, la acidificación del medio se debe también a la disolución de iones ferrosos, pues estos generan el aumento de la concentración de iones oxonios (H3O+); estos oxonios debido a su naturaleza ácida (pK = -1,7) son altamente reactivos y promueven la oxidación de compuestos orgánicos. En la presente investigación también se aplicó energía ultravioleta la cual participa en la producción de radicales hidroxilos así como iones ferrosos según Hansson, Kaczala, Marques, & Hogland (2012): (3) Fe+3 + H2O + hv → OH● + Fe+2 + H+ Según resultados experimentales (Figura 3), el pH óptimo inicial del agua contaminada fue 3,5 pues éste favorece la reacción de oxidación Fenton. Además, se determinó que las dosificaciones molares Fe+2/H2O2 entre 1:3 y 1:5 son las óptimas para la decoloración del agua contaminada (figuras 8 y 9). El pH inicial 3,5 del agua contaminada regula la reacción de oxidación, pues existe una generación favorable de OH●, los cuales son altamente oxidantes con un potencial de oxidación de 2,8 V y así permiten un mínimo del 90% de decoloración y remoción de DQO bajo condiciones ácidas (Kalra, S. S., Mohan, S., Sinha, A., y Singh, G., 2011; Bouasla, C., Ismail, F., & Samar, M. E.-H., 2012; Daud, N. K., Akpan, U. G., y Hameed, B. H., 2012). Sin embargo, se ha demostrado que un pH del agua contaminada por debajo de 3,0 no favorece su decoloración debido a la inhibición de la acción catalizadora del ion ferroso (Daud, N. K., Akpan, U. G., y Hameed, B. H., 2012; El Haddad et al., 2014). A pH mayor que 4 ocurre descomposición del peróxido de hidrógeno y se favorece que iones férricos formen complejos hidróxidos (reacción 4) con tendencia a precipitar y aumentar la producción de lodos (Benatti, C. T., y Tavares, C. R. G., 2012; Saber, A., Hasheminejad, H., Taebi, A., y Ghaffari, G., 2014). (4) Fe+3 + 3H2O → Fe(OH)3 + 3H+ Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 74 Figura 8. Índice ORP para el agua pura tipo I, agua residual sintética y tratamientos con dosis molares entre 1:1 hasta 1:80. En fotografías, las muestras tratadas con Fenton y la muestra original de agua residual sintética. Tratamientos Fenton a un pH inicial de 3,5 y tiempo de reposo de 24 horas. En la Figura 9 B,C y D se reportan los resultados de tratamientos con diversos oxidantes: reactivo Fenton (dosis 1:3, pH inicial 3,5), hipoclorito de sodio comercial al 5% y peróxido de hidrógeno al 30%. De estos tratamientos, el reactivo Fenton permitió la remoción del 99,9% de DQO y 100% de turbidez, en comparación con sus homólogos los cuales no removieron significativamente la contaminación del medio. Según los resultados de la Figura 9 B,C y D, los tratamientos con el reactivo Fenton evidencian el poder oxidativo de los radicales hidroxilos, en comparación con el potencial de oxidación del hipoclorito de sodio 5% (1,36 V) y peróxido de hidrógeno (1,78 V). Se comprueba que para este caso, el peróxido de hidrógeno al 30% por si solo no es eficiente como oxidante de los colorantes contaminantes del agua (El Haddad, M., Regti, A., Laamari, M. R., Mamouni, R., y Saffaj, N., 2014). La decoloración del medio contaminado fue comprobada mediante un barrido de absorbancia en un rango de longitud de onda entre 190 -1100 nm (Figura 5). Se demostró que en efecto la dosis molar 1:3 removió aquellos picos de absorbancia adjudicados a los colorantes amarillo 160, azul 81 y rojo 190. Además, mediante un análisis colorimétrico (Tabla 1) se determinó el color en unidades RGB (Figura 10) de los tratamientos con dosis Fenton entre 1:1 hasta 1:80. En la Figura 10 se observa el cambio de coloración de la muestra de agua pura tipo I, su contaminación con los tres colorantes y su decoloración mediante Fenton. Los resultados del análisis colorimétrico fueron sometidos a un análisis de varianza en el software R-project y como resultado se obtuvo que las dosis molares 1:5 y 1:10 tuvieron un p-estadístico mayor que 0,05. Es decir, el color final Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 75 de estas muestras tratadas con dosis molares 1:5 y 1:10 no variaron significativamente del color de la muestra original de agua pura tipo I. Figura 9. (A) Mediciones de ORP para los tratamientos Fenton de optimización en dosis molares entre 1:3 hasta 1:10, a pH inicial 3,5 y tiempo de reposo de 24 horas. (B) Índice ORP para agua pura tipo I, tratamiento Fenton con dosis molar 1:3 a pH inicial 3,5 y tiempo de reposo de 24 horas; (C) porcentajes de remoción de DQO para las muestras tratadas con Fenton, hipoclorito sódico 5% y peróxido de hidrógeno 30%; (D) porcentaje de remoción de turbidez para las muestras tratadas con Fenton, hipoclorito sódico 5% y peróxido de hidrógeno 30%. Figura 10. Representación gráfica del cambio de color tomando como referencia las transformaciones del color en unidades RGB (calculadas a partir de Tabla 1). En el centro se representa el color del agua pura tipo I, y a su alrededor los colores del agua residual sintética. En la periferia de la gráfica se representan los colores finales después del tratamientos. Se representa también el valor del p-estadístico de cada muestra tratada con Fenton y en referencia al valor del color del agua pura tipo I. Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 76 Un análisis colorimétrico para los tratamientos entre 1:1 hasta 1:10 (Figura 11) determinó el color en unidades RGB así mismo determinó la varianza estadística entre el agua tratada y el agua pura tipo I. Como se puede observar en la Figura 11, el color final del agua tratada con dosis molares 1:3 y 1:5 no difiere estadísticamente del color del agua pura (p > 0,05). Este análisis colorimétrico, además del barrido de absorbancia, y las mediciones del índice ORP, comprueba que la dosis mínima y óptima para oxidar colorantes de agua contaminada con amarillo 160, azul 81 y rojo 190 (conc. final 3300 mg.L-1) fue una dosis molar Fe+2/H2O2 de 1:3. En el presente y demás estudios se ha comprobado que la oxidación de colorantes mediante Fenton depende de la dosis molar Fe+2/H2O2 y el pH inicial; sin embargo, todavía se discute si el mecanismo de oxidación se refiere a la producción de radicales hidroxilos o a un mecanismo mediante la formación de especies del ion ferril [Fe(IV)O]+2 (Chemizmu, K., y Fentona, R., 2009). Figura 11. Representación gráfica de la optimización de dosis molares Fenton entre 1:3 hasta 1:10 versus los colores de cada muestra (colores en unidades RGB a partir de datos de Tabla 1), en comparación con los colores del agua residual sintética, y del agua pura tipo I. En la parte superior se presenta el valor del pestadístico tomando como referencia el valor del color de cada muestra y en referencia al valor del color del agua pura tipo I. Tratamiento a pH inicial 3,5 y 24 horas de reposo. 4. Conclusiones y Recomendaciones Se obtuvieron dosificaciones mínimas y óptimas para la remediación de agua contaminada con colorantes. En dos diseños experimentales (exploración y optimización) se determinó que las dosis molares óptimas Fe+2/H2O2 para la decoloración de agua contaminada con amarillo 160, azul 81 y rojo 190 fueron 1:3 y 1:5 en medio ácido (pH 3,5). El consumo de peróxido de hidrógeno 30% fue apenas de 3,04 mL por cada 250 mL de agua contaminada; es decir, se utilizó aprox. 1,2% de peróxido de hidrógeno de la masa total de agua contaminada (DQO de 1719 mg O2.L-1); mientras que el consumo de sulfato ferroso fue de apenas un 0,3% de la masa total del medio de reacción. Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 77 Todas las variables respuesta (turbidez final, potencial de óxido-reducción, color y DQO) fueron medidas después de 24 horas. Se experimentaron dos tipos de oxidantes (hipoclorito de sodio comercial al 5% y peróxido de hidrógeno al 30%) para comparar su eficiencia con el reactivo Fenton. De estos tratamientos, el reactivo Fenton permitió la remoción del 99,9% de DQO y 100% de turbidez, en comparación con el cloro y el peróxido de hidrógeno los cuales no removieron ni el 50% de la contaminación. De estos resultados se evidenció el poder oxidativo del reactivo Fenton para una contaminación de 3300 mg.L-1 de colorantes reactivos azoicos. El color final del agua tratada con dosis molares 1:3 y 1:5 no difiere significativamente del color del agua tipo I según análisis potenciométrico, colorimétrico y espectrofotométrico. Además de procesos de coagulación química y natural, los procesos de oxidación avanzada ofrecen a la industria textilera una opción para el tratamiento de sus efluentes contaminados con residuos de colorantes reactivos azoicos. Efluentes de la industria textilera son considerados tóxicos y de alta carga contaminante. El proceso Fenton ha demostrado ser una opción económica en términos de consumo de reactivos y con amplias perspectivas de aplicación a gran escala en beneficio del medio ambiente. Bibliografía Arroyave Rojas, J. A., Garcés Giraldo, L. F., & Mejía Trujillo, J. (2009). Emprego do reativo de Fenton para a degradação do corante Tartrazina. Revista Lasallista de Investigación, 6(1), 27–34. Bahmani, P., Kalantary, R. R., Esrafili, A., Gholami, M., & Jafari, A. J. (2013). Evaluation of Fenton oxidation process coupled with biological treatment for the removal of reactive black 5 from aqueous solution. Journal of Environmental Health Science and Engineering, 11(1), 13. Barbusiński, K. (2005). The modified Fenton process for decolorization of dye wastewater. Polish Journal of Environmental Studies, 14(3), 281–285. Benatti, C. T., & Tavares, C. R. G. (2012). Fentons Process for the Treatment of Mixed Waste Chemicals. Faculdade Ingá–UNINGÁ, Universidade Estadual de Maringá–UEM, Brazil Unpublished, 25. Bouasla, C., Ismail, F., & Samar, M. E.-H. (2012). Effects of operator parameters, anions and cations on the degradation of AY99 in an aqueous solution using Fenton’s reagent. Optimization and kinetics study. International Journal of Industrial Chemistry, 3(1), 1–11. Chemizmu, K., & Fentona, R. (2009). Fenton reaction-controversy concerning the chemistry. Ecological Chemistry and Engineering, 16, 347–358. Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 78 Cui, D., Li, G., Zhao, M., & Han, S. (2014). Decolourization of azo dyes by a newly isolated Klebsiella sp. strain Y3, and effects of various factors on biodegradation. Biotechnology & Biotechnological Equipment, 28(3), 478-486. http://doi.org/10.1080/13102818.2014.926053 Daud, N. K., Akpan, U. G., & Hameed, B. H. (2012). Decolorization of Sunzol Black DN conc. in aqueous solution by Fenton oxidation process: effect of system parameters and kinetic study. Desalination and Water Treatment, 37(1-3), 1-7. http://doi.org/ 10.1080/19443994.2012.661246 Domínguez, J. R., Muñoz, M. J., Palo, P., González, T., Peres, J. A., & Cuerda-Correa, E. M. (2014). Fenton advanced oxidation of emerging pollutants: parabens. International Journal of Energy and Environmental Engineering, 5(2-3), 1–10. http://doi.org/10.1007/s40095-0140089-1 El Haddad, M., Regti, A., Laamari, M. R., Mamouni, R., & Saffaj, N. (2014). Use of Fenton reagent as advanced oxidative process for removing textile dyes from aqueous solutions. J Mater Environ Sci, 5, 667–674. El Telégrafo. (2009). Industria del jean afecta al río de Patate. El Telégrafo. Guayaquil, Ecuador. Retrieved from http://goo.gl/eOXLBR El Telégrafo. (2013). Taiwán ofrece asesoría para textileros de Pelileo. El Telégrafo. Guayaquil, Ecuador. Retrieved from http://www.telegrafo.com.ec/regionales/regional- centro/item/taiwan-ofrece-asesoria-para-textileros-de-pelileo.html Eslami, A., Moradi, M., Ghanbari, F., & Mehdipour, F. (2013). Decolorization and COD removal from real textile wastewater by chemical and electrochemical Fenton processes: a comparative study. Journal of Environmental Health Science and Engineering, 11(1), 31. Gaber, M., Abu Ghalwa, N., Khedr, A. M., & Salem, M. F. (2013). Electrochemical Degradation of Reactive Yellow 160 Dye in Real Wastewater Using C/PbO2-, Pb + Sn/PbO2 + SnO2-, and Pb/PbO2 Modified Electrodes. Journal of Chemistry, 2013, 1–9. http://doi.org/10.1155/2013/691763 Garcés Giraldo, L. F., & Hernández Ángel, M. L. (2012). Tratamiento de aguas residuales de la industria textil por medio de luz ultravioleta: una comparación de dióxido de titanio y fenton. Retrieved from http://repository.lasallista.edu.co/dspace/handle/10567/701 Grekova-Vasileva, M., & Topalova, Y. (2009). Biological Algorithms for Textile Wastewater Management. Biotechnology & Biotechnological Equipment, http://doi.org/10.1080/13102818.2009.10818459 Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 23(sup1), 442–447. 79 Hansson, H., Kaczala, F., Marques, M., & Hogland, W. (2012). Photo-Fenton and Fenton Oxidation of Recalcitrant Industrial Wastewater Using Nanoscale Zero-Valent Iron. International Journal of Photoenergy, 2012, 1–11. http://doi.org/10.1155/2012/531076 Kalra, S. S., Mohan, S., Sinha, A., & Singh, G. (2011). Advanced Oxidation Processes for Treatment of Textile and Dye Wastewater: A Review. In 2nd International Conference on Environmental Science and Development (Vol. 4, pp. 271–5). Retrieved from http://www.ipcbee.com/vol4/59-ICESD2011D30020.pdf Körbahti, B. K., & Tanyolaç, A. (2008). Electrochemical treatment of simulated textile wastewater with industrial components and Levafix Blue CA reactive dye: Optimization through response surface methodology. Journal of Hazardous Materials, 151(2-3), 422–431. http://doi.org/10.1016/j.jhazmat.2007.06.010 Lau, Y.-Y., Wong, Y.-S., Teng, T.-T., Morad, N., Rafatullah, M., & Ong, S.-A. (2014). Coagulationflocculation of azo dye Acid Orange 7 with green refined laterite soil. Chemical Engineering Journal, 246, 383–390. http://doi.org/10.1016/j.cej.2014.02.100 Litter, M. I., Domènech, X., & Jardim, W. F. (2001). Procesos avanzados de oxidación para la eliminación de contaminantes. Eliminación de Contaminantes Por Fotocatálisis Heterogénea, 1. Retrieved from http://goo.gl/HHZtrn Moreno, A., Figueroa, D., & Hormaza, A. (2013). Adsorción de azul de metileno sobre cascarilla de arroz. Retrieved from http://repository.lasallista.edu.co/dspace/handle/10567/837 Ohura, S., Harada, H., Shiki, M., Kawakita, H., & Biswas, B. K. (2012). Decoloration of Acid Red 88 Using Synthetic-Zeolite-Based Iron as a Heterogeneous Photo-Fenton Catalyst. Environment and Pollution, 2(1). http://doi.org/10.5539/ep.v2n1p36 Patel, R. D., & Patel, R. L. (2013). Treatment of Dye Intermediate Waste-Water by Fenton and Electro-Fenton Treatments. International Journal of Research in Modern Engineering and Emerging Technology, 1(3), 7. Revelo, A., Proaño, D., & Banchón, C. (2015). Biocoagulación de aguas residuales de industria textilera mediante extractos de Caesalpinia spinosa. Enfoque UTE, 6 (1), 1 – 12. Riaza Frutos, A., Manzano, M., & Quiroga, J. (2007). Oxidación de azo-colorantes vía reacción foto-Fenton. Ingeniería Química. Facultad de Ciencias del Mar y Ambientales, Universidad de Cádiz. Retrieved from http://www.inese.es/html/files/pdf/amb/iq/444/IQfeb12.pdf Rodriguez, R., Flesler, F., & Lehmann, V. (2010). Oxidación avanzada - sistema Fenton - en tratamiento de efluentes industriales de alta carga orgánica. Inti Ambiente. Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 80 Roy Choudhury, A. K. (2013). Green chemistry and the textile industry. Textile Progress, 45(1), 3143. http://doi.org/10.1080/00405167.2013.807601 Saber, A., Hasheminejad, H., Taebi, A., & Ghaffari, G. (2014). Optimization of Fenton-based treatment of petroleum refinery wastewater with scrap iron using response surface methodology. Applied Water Science, 4(3), 283–290. http://doi.org/10.1007/s13201-0130144-8 Villacreces, L. (2013). Aplicación de oxidación química tipo fenton asistida con detergente para tratamiento de suelos contaminados con petróleo. Escuela Superior Politécnica del Ejercito. Retrieved from http://repositorio.espe.edu.ec/bitstream/21000/7802/1/T-ESPE047460.pdf Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80 Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9663 Recibido (Received): 2015/06/18 Aceptado (Accepted): 2015/09/15 CC BY-NC-ND 3.0 Diseño de un incinerador de lecho fluidizado para procesar desechos sólidos orgánicos (Design of a fluidized bed incinerator to process organic solid waste) Salvatore La Verde Spano1, Leonardo Taylhardat1 Resumen: El trabajo contempla el diseño teórico de un incinerador de lecho fluidizado para la eliminación de desechos orgánicos, según los parámetros más avanzados publicados en los trabajos sobre el tema, tomando en consideración las normativas previstas para este tipo de equipo y relacionadas con el ambiente. Los diseños actuales de los incineradores y gasificadores de lecho fluidizado demostraron ser principalmente de forma cilíndrica. Los elementos de diseño a los cuales se les atribuye mayor importancia son la temperatura de operación del incinerador y el tiempo de residencia del desecho dentro del mismo. La temperatura de operación del incinerador debe estar entre 850 y 1.100°C para asegurar la destrucción casi completa de los compuestos orgánicos en el desecho y evitar la emisión de contaminantes, principalmente dioxinas y furanos, el tiempo de residencia es de tres (3) minutos, y se plantea el uso de arena de sílice como material de soporte para cumplir con las normativas ambientales, técnicas y de -1 salubridad. Las dimensiones del incinerador para una capacidad de tratamiento de 1 t hr se determinaron en función del tiempo de residencia, volumen y densidad del desecho a incinerar, y fueron 514 mm de diámetro y 6.650 mm de alto. Palabras clave: incinerador, fluidización, lecho, temperatura, tiempo. Abstract: This work includes the theoretical design of a fluidized bed incinerator for organic waste disposal, according with the most advanced parameters published about the subject, taking into account the regulations provided for this type of equipment and related environment. Current designs of incinerators and fluidized bed gasifiers proved to be mostly cylindrical. The design element to which greater importance is ascribed to the incinerator operating temperature and residence time of the waste inside it. The incinerator operating temperature should be between 850 and 1.100 ° C to ensure almost complete destruction of the organic compounds in the waste and prevent the emission of pollutants, mainly dioxins and furans, the residence time is three (3) minutes and silica sand is proposed to be used as support material, to comply with environmental regulations and health techniques. Incinerator dimensions for 1 ton hr-1 treatment capacity are determined by the residence time, volume and density of the waste to be incinerated, and were 514 mm in diameter and 6.650 mm of high. Keywords: incinerator, fluidization bed, temperature, time. 1 Universidad Central de Venezuela, Maracay−Venezuela ( {salvatore.laverde, leonardo.taylhardat}@ucv.ve) 82 1. Introducción El desarrollo actual de la humanidad y el crecimiento poblacional han traído consigo una gran producción de residuos, los cuales tienen un impacto negativo tanto en el ambiente como en la salud. Su acumulación y la búsqueda de nuevos sitios de rellenos sanitarios se hace complicado, por las exigencias ambientales inherentes debido tanto a su gran volumen, como a los costos generados por su procesamiento, además, los vertederos se han convertido en focos permanentes de contaminación y por esta razón el manejo de los desechos sólidos ha devenido en un problema de salud pública, la Organización para la Cooperación y Desarrollo Económico y la Organización Panamericana para la Salud estiman que se producen en la actualidad de 0,8 a 1,4 kg de desechos sólidos totales por habitante-día (Organization for Economic Co-operation and Development, 2005; Organización Panamericana de la Salud, 2005), y tomando en cuenta que la población mundial para el año 2011 era de 6.974 millones de personas, se tiene que ese año se produjeron cerca de 9.764.000 toneladas de desechos (Fondo de Población de las Naciones Unidas, 2011). En Venezuela el procesamiento de desechos sólidos en general es limitado, por cuanto existen innumerables vertederos de basura a cielo abierto en las principales ciudades y pocas alternativas adecuadas de manejo, como por ejemplo los rellenos sanitarios, se tiene que para el año 2010, solo se contaba con dos de estos en el país, esto trae como consecuencia que se puedan presentar problemas de contaminación de cuerpos de agua por lixiviación de contaminantes. La Facultad de Agronomía de la Universidad Central de Venezuela (FAGRO), con sede en Maracay, Venezuela, no escapa a esta realidad debido a su vasta extensión (180 hectáreas, de las cuales 17 hectáreas son de jardines y áreas verdes), en donde se genera una gran cantidad de desechos sólidos orgánicos, tales como desechos y residuos vegetales, papelería no reciclable, y en donde además hay un comedor universitario que genera desechos sólidos. Una posible solución al manejo y tratamiento de los residuos lo constituye la incineración. En las últimas décadas, una gran cantidad de países industrializados la han empleado como tratamiento de los residuos sólidos urbanos. La utilización de esta tecnología permite reducir en gran medida el peso (75%) y el volumen (90%) de los residuos a tratar y además, obtener energía. En virtud del alto poder calorífico requerido para incinerar el material y del potencial contaminante de las emisiones, los sistemas de incineración han evolucionado hacia tecnologías capaces de alcanzar mayores rendimientos en la combustión y mayor eficacia en la eliminación de contaminantes (Romero, 2001). Uno de los avances tecnológicos que viene desarrollándose es la denominada incineración de lecho fluidizado, la cual se caracteriza por realizar la combustión no directamente en el desecho sino utilizando un material inerte como vehículo. Este material inerte usualmente está constituido Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 83 por: arenas, cenizas, piedra caliza u otro material, al cual se le agrega el desecho a ser incinerado que puede ser: combustible, carbón, material vegetal, basura, entre otros, este se mezcla mediante un sistema neumático al material inerte y se procede a la combustión controlada del mismo, se recomienda que el material combustible no sea mayor al 5% del peso total del lecho, usualmente el rango varía de 2 al 5% del mismo. El incinerador de lecho fluidizado no solo elimina los desechos orgánicos sino que evita la conversión de dichos desechos en metano (CH4), como cuando estos son acumulados en los rellenos sanitarios y como el metano equivale a 21 veces el efecto del Dióxido de Carbono (CO2) al efecto invernadero en la atmosfera se reduce el impacto sobre el mismo, obteniéndose un tratamiento más eficiente. (International Carbon Bank & Exchange, 2000; Tryger Ltda, (s. f.)) El material a incinerar es muy variado, desde residuos sólidos municipales (RSM) usados en los incineradores de López y Bautista (2004) y Reis et al. (2007), lodos residuales de plantas de tratamiento de agua en el incinerador de Von Roll Inova en Balogh y Nollet (2008), hasta carbón y biomasa usado en gasificadores e incineradores estudiados en Velez et al. (2009) y Pöykiö et al. (2009). El presente trabajo constituye una propuesta factible desde el punto de vista técnico para eliminar la gran cantidad de desechos sólidos orgánicos generados en la Facultad de Agronomía, teniendo como objetivo diseñar un incinerador de lecho fluidizado para procesar desechos sólidos orgánicos agrícolas e inorgánicos combustibles procedentes de FAGRO. 2. Materiales y métodos Las dimensiones del incinerador dependen de la cantidad de desechos a incinerar y de la frecuencia de generación (flujo másico). La altura mínima de la cámara de combustión se calcula a partir de la sección transversal seleccionada para el incinerador. Dado que el lecho se va a expandir al fluidizarse, y que dicha expansión puede llegar al 100% o más del lecho en reposo, la altura de diseño de la cámara de combustión se recalcula y se establece en por lo menos el doble de la altura calculada anteriormente, para evitar así el arrastre de partículas sin incinerar fuera del incinerador. El siguiente paso es elegir y caracterizar los materiales que se usan como soporte del lecho, para ello se determina la granulometría de las partículas del soporte a utilizar, con lo cual se encuentran los diámetros mínimos y máximos en milímetros. Se selecciona el equipo adecuado que garantice el suministro del aire necesario para fluidizar el lecho, para ello se calcula el caudal necesario a través de la ecuación. Q vA (1) Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 84 Donde A es la sección transversal del incinerador y v es la velocidad mínima de fluidización, la cual se calcula teóricamente según la fórmula determinada por Coltters y Rivas (2004). v mf 9,7119 x107 X 0,84268 0,01601 (2) para un diámetro de partícula entre 95 μm ≤ Dp ≤ 800 μm, donde X es una constante y se calcula con la siguiente formula: DP2 S g g S X g 1,23 (3) Donde ρs es la densidad de la arena o material del lecho, ρg es la densidad del fluido (aire a 25 °C), g la aceleración de la gravedad, Dp el diámetro de la arena y μ la viscosidad del fluido. Se debe trabajar en el diseño con velocidades mínimas de fluidización y por lo tanto se obtienen caudales mínimos, al seleccionar el equipo es necesario tomar en cuenta este factor y escoger aquel que entregue un caudal por encima de tales valores. Otros de los factores a tomar en cuenta para lograr una combustión eficiente son las pérdidas de calor que pueden ocurrir por la falta de aislamiento, por lo tanto se revisa la bibliografía para determinar si dichas pérdidas afectan la eficiencia de la combustión y cómo evitarlo. Finalmente se establece el periodo y frecuencia, y los puntos clave de toma de temperatura a lo largo del proceso, así como el análisis de los gases de la combustión a la salida del incinerador. 3. Resultados y discusión 3.1. Identificación y análisis de los diseños de incineradores de lecho fluidizado Se eligió diseñar el incinerador con sección cilíndrica, ya que es la forma geométrica más sencilla de construir y de operar, sumado a que la distribución del lecho es más uniforme, siendo el material predominantemente usado en el diseño el acero al carbono con accesorios en acero inoxidable. Dado que la forma elegida del incinerador es cilíndrica la sección transversal libre A se calcula con la ecuación del área de una sección circular. Los elementos de diseño a los cuales se le atribuye mayor importancia son la temperatura de operación del incinerador y el tiempo de residencia del desecho dentro del mismo. Para cumplir con las normas sobre calidad del aire y control de la contaminación atmosférica (República de Venezuela, 1995), ver Tabla 1, la temperatura de operación del incinerador debe estar entre 850 y 1.100 °C y el tiempo de residencia en tres (3) minutos. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 85 Tabla 1. Límites de emisión de contaminantes del aire y de opacidad para fuentes fijas de contaminación atmosférica. -3 Contaminantes Mg.m Cloruro de Hidrogeno (HCl) 50 Dióxido de Azufre (SO2) 100 Fluoruro de Hidrogeno (HF) 2 Bromuro de Hidrogeno (HBr) 5 Monóxido de Carbono (CO) 400 ppm Óxidos de Nitrógeno (NOx) 200 -1 Partículas solidas 200 (residuos 1 – 3 t.h ) -3 Dioxinas y Furanos 0,1 ng.m Hidrocarburos aromáticos policíclicos (PAH) 0,05 Fuente: República de Venezuela, (1995). 3.2. Diseño del incinerador para la producción de desechos sólidos de la Facultad de Agronomía En FAGRO se genera aproximadamente un total de 3 kg.m-2.mes-1 de desechos orgánicos, y dado que el área de jardines de FAGRO es de aproximadamente 17 ha, se generan alrededor de 510 t.mes-1 de desechos orgánicos agrícolas lo que da alrededor de 17 t.dia-1 y por lo tanto 0,71 t.hr-1, se redondea este valor hasta 1 t.hr-1 tomando en cuenta las distintas variables que inciden en el crecimiento de las plantas y caídas de hojas y ramas. Por lo tanto, tomando 1 t.hr-1 como el flujo másico del desecho a incinerar y sabiendo que la densidad del desecho agrícola es de 0,09042 t.m-3 (determinado experimentalmente por los autores en el Laboratorio de Materiales de FAGRO) y tres minutos de tiempo de residencia, se determinó el volumen de desecho a incinerar el cual equivale al volumen de la cámara de combustión, siendo 0,553 m3. Dado que el incinerador de lecho fluidizado semeja una tubería, se calcula el diámetro libre, a partir de las tuberías de acero sin costura disponibles en el mercado, se recomienda que este diámetro no sea muy grande debido a que se requerirá mucha energía para fluidizar el lecho, en este trabajo, se fijó en 0,514 m, el cual es el diámetro interno de una tubería de 30 pulgadas (762 mm) de acero al carbono sin costura, ya que se consigue fácilmente en el mercado nacional, menos dos veces el alto de un ladrillo refractario (0,1143 m). 0,762 m – 2 x 0,00953 m – 2 x 0,1143 m = 0,514 m Para el diámetro de 0,514 m corresponden un área transversal circular libre A de 0,208 m2 y una altura mínima de 2,66 m. Dado que el lecho se expandirá hasta un 100% o más de la longitud del lecho en reposo, se recalcula la altura del mismo con un factor de seguridad de 2,5 y se establece en 6.650 mm para evitar el arrastre de partículas sin incinerar fuera del incinerador. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 86 Se analizaron tres tipos diferentes de arena en el laboratorio de materiales de FAGRO: arena de sílice, arena de los médanos de Coro y arena lavada empleada en construcción, y se obtuvo que la más adecuada es la arena de sílice, ya que se busca obtener un diámetro promedio entre 0,3 mm y 0,6 mm y esa fue la arena que proporcionó la caracterización más uniforme. Se determinó la densidad de la arena, obteniéndose un valor de 1.528,2 kg.m-3, ver Tabla 2. Tabla 2. Valores de densidad y diámetro de la arena del lecho. -3 Densidad de la arena ρs 1.528,2 kg.m >0,3 mm Diámetro de la partícula Dp <0,6 mm En la fabricación del incinerador se empleará como materia prima acero al carbono por su maleabilidad para trabajarla, su precio accesible y su facilidad para adquirirla. El plato distribuidor que soportará el lecho será de acero inoxidable de 10 mm de espesor y con múltiples perforaciones. Para evitar que la arena se vaya por las perforaciones cuando el incinerador esté en reposo, se colocan en cada perforación toberas de acero inoxidable. El aire para fluidizar el lecho será suministrado por un compresor debido a que este garantiza el flujo constante de aire y mantiene la presión. Para obtener el caudal con la fórmula (1), primero se calcula la velocidad mínima de fluidización con las fórmulas (2) y (3) con los datos de la Tabla 3, (Potter y Wiggert, 1998) y la aceleración de gravedad g como 9,81 m.s-2. Tabla 3. Propiedades del aire a 25°C. -3 Densidad ρg 1,18 kg.m Viscosidad μ 1,783 x 10 kg.m .s -5 -1 -1 Se utilizan los valores extremos de los diámetros de la arena y se obtiene un rango de velocidades mínimas de fluidización que va desde 225 m.h-1 hasta 720 m.h-1, las cuales están dentro del rango de velocidades mencionadas por Prieto (s. f.), con la velocidad mínima de fluidización y el área transversal del incinerador 0,208 m2 se calcula el caudal con la ecuación (1), obteniéndose un rango desde 46,8 m3.h-1 hasta 149,8 m3.h-1, para seleccionar el compresor se transforman las unidades a litros por minuto y se obtiene un rango de 780 lpm hasta 2.500 lpm, el cual puede ser alcanzado con un compresor de 25 HP, cuatro pistones en “V”, doble etapa de compresión, 2.800 lpm y 175 psi. El cuerpo del incinerador mostrado en la Figura 1 es de acero al carbono, se fabrica a partir de un tubo de acero sin costura de 762 mm y consta de siete (7) secciones, la primera sección es de 500 mm de altura, las otras seis (6) de 1.143 mm de altura cada una para así aprovechar la longitud del ladrillo refractario, obteniéndose una altura total de 7.538 mm para garantizar la altura necesaria de 6.650 mm de la cámara de combustión; para unir cada sección se coloca un flange o Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 87 brida de 100 mm de ancho y 12 mm de espesor con perforaciones de 14,29 mm y conectar con pernos de 12,7 mm. En cada sección del incinerador, se encuentran orificios con tapón macho de 12,7 mm de diámetro donde se enroscan los termopares para la toma de temperaturas, y otros dos orificios para los indicadores de caída de presión ubicados en la sección del lecho. La primera sección de abajo hacia arriba del incinerador es la de entrada de aire para fluidizar el lecho proveniente del compresor y el combustible. Entre esta sección y la siguiente se encuentra el plato distribuidor, el mismo es de acero inoxidable con un espesor de 10 mm, en dicho plato van ubicadas las toberas de aire de fluidización. Figura 1. Esquema del Incinerador de Lecho Fluidizado e indicaciones de partes componentes. Las toberas se componen de un tubo sin costura de acero inoxidable AISI-304L de 9,525 mm (0,375 pulgada) de diámetro y 56 mm de longitud, de los cuales 44 mm sobresalen del plato distribuidor al que están soldados, el extremo superior está cerrado y a 7 mm de este se localizan 4 orificios equidistantes de 3,175 mm (1/8 de pulgada), ver Figura 2. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 88 Figura 2. Detalle Tobera. La segunda sección es la sección del lecho, tiene un ducto de entrada de desechos con un ángulo de 55° hacia la pared del mismo para garantizar que todo el material a incinerar deslice y entre al incinerador, dicho ducto posee dos compuertas de seguridad para dosificar la entrada de material al incinerador, dichas compuertas se activarán cada tres minutos (tiempo de residencia) y el desecho se lleva al incinerador a través de un transportador tipo sin fin con un caudal de 1 t.h-1. En la tercera sección del incinerador hay dos entradas laterales opuestas en forma de “V” con un ángulo de 45° hacia la pared del mismo, fabricadas de tubos de acero sin costura de 63,5 mm (2 ½ pulgadas) de diámetro, estas se usan como mirilla de observación y para introducir el soplete de soldadura de oxígeno y acetileno para el arranque del sistema. En la última sección se coloca una tubería cuadrada lateralmente al incinerador para conectarlo a un ciclón que recoge las partículas de lecho y de materia orgánica sin incinerar y las vuelve a insertar dentro del incinerador en la segunda sección. En la salida del ciclón se coloca la chimenea y los rociadores de agua para enfriar el gas rápidamente a menos de 200 °C y así evitar la formación de dioxinas y furanos. A la salida de la chimenea se colocará un analizador de gases comercial con capacidad de medición de oxígeno, dióxido de carbono, monóxido de carbono, óxidos de nitrógeno, dióxido de azufre, temperatura, presión, velocidad, caudal, exceso de aire y eficiencia de combustión. El aislamiento térmico del incinerador se realiza tanto interna como externamente, internamente el aislamiento se logra con ladrillos refractarios de 228,6 x 114,3 x 63,5 mm los cuales se adhieren a las paredes con un pegamento especial, luego se recubrirán los ladrillos con un friso de cemento refractario y el recubrimiento externo se hará con fibra de vidrio recubierta con papel metalizado de 25,4 mm de espesor. Para monitorear la temperatura dentro del incinerador a todo lo largo del proceso se usan termopares tipo K de acero inoxidable con intervalos de temperatura de -200 a 1.371°C, la temperatura se registra en un panel de control. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 89 3.3. Descripción de las especificaciones teóricas de operación El sistema de incineración trabaja según el esquema mostrado en la Figura 3, en la cual se observa que el mismo consta de las siguientes etapas: inyección de aire y encendido del sistema, carga de los desechos e incineración y post combustión y análisis de los gases. A Inicio Inyección de aire No Combustión de desechos Fluidización del lecho Si Arrastre de partículas Si No Inyección de Combustible Encendido del incinerador No T emperatura dentro del incinerador 850C Combustión de gases a 800C por 2 seg Enfriamiento de gases por debajo de 200C con agua Si Trituración de desechos Entrada de desechos Análisis de gases A Fin Figura 3. Flujograma de la operación del incinerador de lecho fluidizado. El material de soporte o de lecho seleccionado es arena, debido a que es fácil de fluidizar, es estable y conserva sus características a altas temperaturas y la operación se realiza bajo condiciones específicas de altura estática del lecho de arena de 0,15 a 0,20, y tamaño promedio de la partícula de arena entre 0,3 y 0,6 mm y con flujo de gas y aire constante, tal como se indica en el Tabla 4. -1 Tabla 4. Especificaciones de operación definidas para el diseño del incinerador de FAGRO para 1 t.hr . Temperatura de operación (°C) 850 – 1.100 Tiempo de residencia (min) 3 Altura estática de lecho (m) 0,15 – 0,20 Exceso de aire (%) 5 -10 Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 90 3.3.1. Inyección de aire El arranque de la operación del sistema se realiza mediante la inyección de aire para fluidizar el lecho, una vez fluidizado se hace pasar el combustible y se enciende mediante un generador de chispas cerámico. Una vez que el lecho de arena alcanza la temperatura de 850 °C, los desechos se incorporan al incinerador a través de un transportador sin fin por una ventana de alimentación en la parte lateral del mismo. La introducción de los desechos será dosificada por dos compuertas para evitar que los desechos se enciendan antes de entrar al incinerador y generar un efecto en cadena quemándose el transportador sin fin. 3.3.2. Combustión de desechos Después de mezclarse las partículas volátiles, éstas se queman en lo que se conoce como combustión homogénea o combustión de fase gas. El material residual se queda en el lecho y su combustión, por lo general, involucra tres procesos: a) intercambio de gas entre las burbujas y la fase de partículas (que depende del tamaño de la burbuja), b) difusión de los gases que forman parte de la reacción hacia y desde la superficie de la partícula, la cual depende del tamaño de la misma, y c) reacción química en la superficie de la partícula, y que están en función de la temperatura del sistema. 3.3.3. Toma de datos Durante la operación del incinerador se lleva a cabo un registro de los diversos parámetros de operación y fluidización (velocidad de fluidización, flujo de combustible, presión y temperatura en diversos puntos del incinerador) a través de los orificios que se realizaron en cada sección del incinerador. 3.3.4. Combustión de gases Los gases productos de la combustión se hacen pasar por un ciclón donde por gravedad se recogen los desechos sólidos sin incinerar y la arena arrastrada (en el supuesto de que llegara a ocurrir), por otro lado los gases de la combustión deben pasar por una segunda cámara de combustión con un tiempo de residencia de al menos dos segundos a una temperatura mínima de 850 °C (Environmental Protection Agency,1992) con la finalidad de reducir la emisión de contaminantes. Posteriormente los gases antes de salir a la atmosfera son enfriados en la chimenea por debajo de los 200 °C con chorros de agua para evitar la formación de dioxinas y furanos. Adicionalmente se analizan los gases de la combustión (CO, SO2, NOx, O2) a la salida de la chimenea con un analizador de gases comercial. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 91 4. Discusión Se seleccionó la forma cilíndrica ya que es la más utilizada y recomendada para el diseño del incinerador de lecho fluidizado en la literatura revisada (López y Bautista, 2001; Vélez et al., 2009), con la notable excepción de Zhang et al., (2009) quienes utilizaron un dispositivo rectangular; de igual manera la elección de acero al carbono y acero inoxidable como materiales para la construcción obedece a que son los más frecuentemente utilizados y recomendados en la literatura porque resisten adecuadamente las altas temperaturas de operación del sistema (López y Bautista, 2001; Vélez et al., 2009). La temperatura de operación del incinerador debe estar entre 850 y 1.100 °C, ya que con ello se asegura la destrucción casi completa de los compuestos orgánicos en el desecho (Air & Waste Management Association; 1992), por otra parte, el tiempo de residencia es de tres (3) minutos según lo establece Prieto (s. f.) ya que con ese valor de tiempo aumenta la probabilidad de que tengan lugar las reacciones de desulfuración, y que cumplan con los límites de emisiones máximos mostrados en la Tabla 1. El diseño del plato distribuidor se realizó considerando las investigaciones de (López y Bautista, 2004; Vélez et al., 2009; Zhang et al., 2009; Bautista et al., 2004; López et al., 2008; Gogebakan y Selçuk, 2009), quienes indicaron que este diseño ha resultado adecuado y eficiente. Dado que el aire para fluidizar el lecho será suministrado por un compresor siguiendo la recomendación de López y Bautista (2004), y como el diseño se realizó basado en velocidades mínimas y por lo tanto, en caudales mínimos de operación, al seleccionar el compresor es necesario tomar en cuenta este factor y seleccionarlo de tal forma que entregue un caudal por encima de este valor de diseño, además que se necesita añadir más aire para cumplir con el exceso de aire de 5 a 10% necesario para alcanzar la oxidación óptima del combustible y evitar la formación de CO, ya que el control de la combustión y la reducción de las emisiones a la atmósfera en un incinerador de lecho fluidizado dependen de factores como la materia prima, el material de soporte, y los mecanismos de inyección y evacuación de los gases. Al respecto, López et al. (2008) mencionan que existe una correlación entre la temperatura, el tiempo de residencia y el grado de emisión. Hasfelriis (1987) y Wang (1993) han registrado que ciertas condiciones de operación minimizan la formación de CO y reducen la emisión de dioxinas y furanos. Por su parte, Wiley (1987) sugiere como mínimo un nivel de oxígeno de 1 a 2% en volumen, involucrando un incremento de 5 a 10% de exceso de aire al sistema, para con ello alcanzar la oxidación óptima del combustible y evitar la formación de monóxido de carbono (CO). La razón de enfriar bruscamente el gas por debajo de 200 °C y así evitar la formación de dioxinas y furanos de novo, es que estos compuestos tienen la capacidad de formarse nuevamente cuando el gas se enfría lentamente entre 200 y 400°C (Romero, 2001). Es importante destacar que para el Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 92 correcto funcionamiento del sistema el material a incinerar debe estar previamente desmenuzado, tal como lo sugieren Lopez et al. (2008) La importancia del aislamiento térmico obedece al hecho de evitar o minimizar las pérdidas de calor, las cuales afectan la eficiencia de la combustión (López y Bautista, 2004; Bautista et al., 2004; López et al., 2008), si bien los autores mencionados solo calculan la eficiencia de la combustión, López et al. (2008), pero no realizan cálculos de pérdidas, aun así recomiendan el aislamiento para mejorar la eficiencia. Se utilizó el soporte de lecho de arena basado en las investigaciones de López y Bautista (2004), Bautista et al. (2004), López et al. (2005), López et al. (2008), Gogebakan y Selçuk (2009), Zhang et al. (2009), y por la compañía suiza Von Roll Inova (Balogh y Nollet, 2008), quienes lo recomiendan por su facilidad para fluidizar, estabilidad y resistencia a las altas temperaturas, asimismo, el diseño del lecho de arena se realizó siguiendo las recomendaciones de Prieto (s. f.) y López y Bautista (2004). 5. Conclusiones y recomendaciones El incinerador de lecho fluidizado constituye una alternativa para el manejo de residuos de fácil construcción, manejo y mantenimiento, ya que con el uso del incinerador se consigue una reducción muy alta de los desechos sólidos (70% en peso y hasta 90% en volumen), con una baja emisión de gases de la combustión (CO, SO2, NOx, O2) y evitando la liberación de dioxinas y furanos. El material de soporte para el lecho más adecuado, resultó ser la arena de sílice, aunque es posible que dependiendo de la disponibilidad, puedan utilizarse otras arenas, cenizas, piedra caliza entre otros materiales, siempre que cumplan con los requerimientos de diseño. Los materiales utilizados para su construcción pueden adquirirse fácilmente en el mercado local, lo cual redunda positivamente en la facilidad y costo de construcción del incinerador. Si bien el incinerador del presente trabajo se diseñó para residuos orgánicos, principalmente vegetales, el mismo podría utilizarse para casi todo tipo de residuos, y aunque las dimensiones del incinerador diseñado en el presente trabajo (514 mm de diámetro y 6.650 mm de alto), permitirán una eliminación adecuada de 1 t.hr-1 de los residuos que se generan en FAGRO de la Universidad Central de Venezuela, localizada en Maracay, estado Aragua, Venezuela, este diseño puede ser fácilmente modificado y adaptado para otros valores de flujo másico de residuos distintos al de diseño (1 t.hr-1) aplicando las ecuaciones y los procedimientos utilizados en el presente trabajo, empleando un rango de velocidades mínimas de fluidización que va desde 225 m.h-1 hasta 720 m.h-1. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 93 Bibliografía Air & Waste Management Association. (1992). Air pollution engineering manual. New York: Van Nostrand Reinhold. Balogh, S. J., y Nollet, Y. H. (2008). Mercury mass balance at a wastewater treatment plant employing sludge incineration with offgas mercury control. Science of the total environment. 389(1), 125-131. Bautista Margulis, R. G., López Ocaña, G., y Torres Balcázar C. A. (2004). Tratamiento térmico de residuos sólidos municipales en un combustor experimental de lecho fluidizado. Trabajo presentado en Semana de Divulgación y Video Científico. Universidad Juárez Autónoma de Tabasco. Villahermosa, México. Coltters, R., y Rivas, A. L. (2004). Minimum fluidation velocity correlations in particulate systems. Powder Technology. 147(1-3), 34-48. Fondo de Población de las Naciones Unidas. (2011). Estado de la población mundial. New York, NY: UNFPA. Gogebakan, Z., y Selçuk¸ N. (2009). Trace elements partitioning during co-firing biomass with lignite in a pilot-scale fluidized bed combustor. Journal of Hazardous Materials. 162(2-3); 1129–1134. Hasselriis, F. (1987). Optimization of combustion conditions to minimize dioxin emissions. Waste Management & Research. 5, 311-326. International Carbon Bank & Exchange. (2000). Calculating greenhouse gases. Recuperado de: http://www.icbe.com/emissions/calculate.asp. Kumar, D. (1999). Condiciones técnicas y riesgos de la incineración. Recuperado de: http://www.bvsde.paho.org/bvsacd/acodal/x.pdf. López Ocaña, G., Bautista Margulis, R. G., Hernández Barajas, J. R., Saucedo Terán, R. A., y Rubio Arias, H. O. (2008). Combustión de residuos sólidos municipales en un sistema de lecho fluidizado experimental. Universidad y Ciencia. 24(2), 89-100. López Ocaña, G., Bautista Margulis, R. G., y Focil Monterrubio, R. L. (2005). Combustión de lecho fluidizado aplicado al tratamiento térmico de residuos sólidos municipales generados en Villahermosa, Tabasco. Trabajo presentado en Semana de Divulgación y Video Científico. Universidad Juárez Autónoma de Tabasco. Villahermosa, México. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 94 López Ocaña, G., y Bautista Margulis, R. G. (2004). Diseño de un combustor experimental de lecho fluidizado para la incineración de residuos sólidos municipales. Trabajo presentado en Semana de Divulgación y Video Científico. Universidad Juárez Autónoma de Tabasco. Villahermosa, México. Organización Panamericana de la Salud. (2005). Informe de la evaluación regional de los servicios de manejo de residuos sólidos municipales en América Latina y el Caribe. Washington, D.C.: OPS. Organization for Economic Co-operation and Development. (2005). OECD Environmental data: compendium 2004. París: OECD Publishing. Potter, M. C., y Wiggert, D. C. (1998). Mecánica de fluidos. México: Prentice Hall. Pöykiö, R., Rönkkömäki, H., Nurmesniemi, H., Perämäki, P., Popov, K., Välimäki, I., y Tuomi T. (2009). Chemical and physical properties of cyclone fly ash from the grate-fired boiler incinerating forest residues at a small municipal district heating plant (6MW). Journal of Hazardous Materials. 162(2-3), 1059-1064. Prieto, I. (s. f.). Centrales térmicas. Sistemas de combustión de lecho fluido. Recuperado de: http://ocw.uniovi.es/pluginfile.php/1011/mod_resource/content/1/1C_C12757_0910/04_GT13 _Centrales_termicas_de_lecho_fluido.pdf. Reis, M. F., Sampaio, C., Brantes, A., Aniceto, P., Melim, M., Cardoso, L., Gabriel, C., Simão, F.; y Pereira Miguel, J. (2007). Human exposure to heavy metals in the vicinity of Portuguese solid waste incinerators. Biomonitoring of Pb, Cd and Hg in blood of the general population. International Journal of Hygiene and Environmental Health. 210(3-4), 439–446. Romero Salvador, A. (2001). Incineración de residuos sólidos urbanos. Recuperado de: http://www.icp.csic.es/cyted/Monografias/Monografias1998/C2-315.pdf. Tryger Ltda. (s. f.). Bonos de carbono. Recuperado de: http://www.trygerltda.cl/. USA. Environmental Protection Agency. (1992). Control techniques for volatile organic emissions from stationary sources. Report EPA 453/R-92-018. Research Triangle Park, NC: Environmental Protection Agency. Vélez, J. F., Chejne, F., Valdés, C. F., Emery, E. J., y Londoño, C. A. (2009). Co-gasification of Colombian coal and biomass in fluidized bed: An experimental study. Fuel. 88(3), 424–430. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 95 Venezuela. República de Venezuela. (1995). Gaceta Oficial de la República de Venezuela, N° 4899. (Extraordinaria). Decreto N° 638 de 26 de abril de 1995. Normas sobre calidad del aire y control de la contaminación atmosférica. Caracas: República de Venezuela. Wang, W. (1993). Emission control hardware cost in California. Report 80144. Toronto: Ontario Hydro. Wiley, S. K. (1987). Incinerate your hazardous waste. Hydrocarbon Processing. 66(6); 51-54. Zhang, Y., Jin, B., y Zhong, W. (2009). Experimental investigation on mixing and segregation behavior of biomass particle in fluidized bed. Chemical Engineering and Processing: Process Intensification. 48(3), 745–754. Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95 Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/05/25 Aceptado (Accepted): 2015/09/15 CC BY-NC-ND 3.0 Composición y diversidad de especies arbóreas en transectos de localidades del bosque siempreverde de tierras bajas del Ecuador (Composition and diversity of tree species in transects of location lowland evergreen forest of Ecuador) Jorge Caranqui A.1 Resumen: El estudio se realizó en 9 transectos de 1000m2 de bosque siempreverde de tierras bajas, ubicado en dos localidades de la Costa y una en el oriente ecuatoriano. Se planteó contribuir al conocimiento de la diversidad y composición de plantas arbóreas mayores de 10 cm de diámetro a la altura del pecho (DAP), además de inferir el estado de conservación de los bosques en base en la composición, el número de especies, índices de diversidad y valor de importancia (IV) localizadas en 9 transectos de 1000 m² de bosque. Se encontraron 156 especies, 107 géneros y 39 familias distribuidas en los 9 transectos, en cada uno la diversidad varía según el índice de diversidad de Simpson de 0.95-0.88, en este caso todos son diversos porque se aproxima a 1. La mayoría de las especies no están presentes en todos los transectos, el índice de valor en cada transecto no sobrepasa el 40%. Agrupando los transectos coinciden con las tres localidades efectuadas a excepción del transecto 5 y 8 que fueron realizados en sitios perturbados, es decir la mayoría de transectos tienen una perturbación intermedia por eso sus altos índices de diversidad. Palabras clave: Bosque siempreverde, biodiversidad, similitud Abstract: The study was conducted in 9 transects 1000m2 of lowland evergreen forest, located in two locations on the coast and one in eastern Ecuador. It was to contribute to knowledge of the diversity and composition of woody plants over 10 cm diameter at breast height (DBH) plus infer the state of conservation of forests based on the composition, the number of species, indices diversity and importance value (IV), found in 9 transects of 1000 m² of forest: 156 species, 107 genera and 39 families distributed in 9 transects, in each one the Simpson diversity index is of 0.92 to 0.95, in this case are diversity because all approaches 1. Most were found species aren´t present in all transects, the index value in each transect does not exceed 40%. Grouping transects match three locations exception made to transect 5 and 8 were conducted in disturbed sites, the most transects are intermediate disturbance that their high levels of diversity. Keywords: Lowland evergreen forest, biodiversity, similarity 1. Introducción El bosque siempreverde de tierras bajas clasificado por Harling (1986) como bosque lluvioso de las tierras bajas, cubre el norte de las tierras bajas de la costa del Pacífico bajo los 700 m de elevación, la mayor parte de Esmeraldas, las áreas adyacentes de la provincia de Pichincha y áreas pequeñas del norte de Manabí y Los Ríos. Este tipo de vegetación también cubre 1 Escuela Superior Politécnica del Chimborazo, Riobamba - Ecuador ([email protected]) 97 virtualmente todas las tierras bajas de la Amazonía al este de los Andes. También se caracteriza por un clima con una precipitación anual por sobre los 3000 mm., y carece de una estación seca marcada (es decir, generalmente no más de un mes con menos de 100 mm de precipitación). Este es el tipo de vegetación más extenso en el país, que cubre más de un tercio del Ecuador continental (Neill 1999). El bosque siempreverde de tierras bajas es alto, denso y siempre verde, con el dosel frecuentemente de 30 m., o más de altitud y una diversidad alta de especies. La diversidad alfa de los árboles, como se muestra en las parcelas permanentes de una hectárea, es más alta en la Amazonía ecuatoriana que en el área del bosque lluvioso en el norte de la costa del Pacífico (Neill, 1999). El bosque siempreverde de tierras bajas del noroeste del Ecuador es muy similar al de la región del Chocó colombiano de la costa del Pacífico y comparte muchas especies, pero hay también un elemento significativo de especies endémicas que no se conocen al norte de la frontera colombiana (Neill, 1999); muchas especies están también distribuidas en los bosques húmedos de la Amazonía y/o en América Central (Valencia et al., 1998). Por lo manifestado anteriormente, el objetivo de este trabajo es contribuir al conocimiento de la composición y diversidad de especies leñosas mayor de 10 cm de diámetro a 1.30 m sobre el suelo (DAP), encontrada en 9 transectos (unidades muestreales) del “bosque lluvioso de tierras bajas, en dos localidades de la Costa y una en la Amazonía basados en el “IV” (índice de valor), diversidad y similitud. 2. Materiales y métodos 2.1. Área de estudio El presente estudio se realizó en 3 localidades (tabla 1) de la Costa y de la Amazonía ecuatoriana que pertenece a la formación de “bosque siempreverde de tierras bajas” (Sierra, 1999). Tabla 1. Ubicación geográfica de los transectos en estudio. TRANSECTO ALTITUD msnm) COORDENADAS PROVINCIA CANTÓN LOCALIDAD T1-T5 200 00°35´S, 79°21´W Los Ríos Buena Fé Río Palenque T6-T8 240 00º08' S, 76º45'W Sucumbios Shushufindi Incinerox T9 400 02°17’S, 79° 05´W Chimborazo Cumandá Chilicay 2.2. Toma de datos Durante el 2012 y 2013, se procedió a inventariar 9 transectos de 1000 m2, en forma de zig-zag cada uno con cinco líneas de 50x4 m cada una con rumbo al Norte (Caranqui, 2011); (Cerón ,2003); (Phillips, 2002), ubicados dentro de las zonas de estudio, éstas zonas se escogieron por Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 98 las facilidades brindadas por sus propietarios. Se midieron todos los árboles iguales o mayores a 10 cm de DAP. Se colectaron especímenes de los individuos fértiles. Las muestras se prensaron y fueron secadas e identificadas por el autor en el Herbario de la Escuela Superior Politécnica de Chimborazo (CHEP), y verificado la información en Jorgensen (1999) y en la base de datos (Missouri Botanical Garden). 2.3. Análisis de datos Se realizaron los siguientes cálculos (Cerón, 2003): Área Basal (AB) π(D)2 AB = 4 Donde AB = Área basal D = DAP [Diámetro a la altura del pecho (1.30m.)] π = 3.1416(constante) Densidad = Número de árboles en la parcela Densidad Relativa (DR) DR = # de árboles de una especie × 100 # árboles en la parcela Dominancia Relativa (DMR) 𝐷𝑀𝑅 = á𝑟𝑒𝑎 𝑏𝑎𝑠𝑎𝑙 𝑑𝑒 𝑢𝑛𝑎 𝑒𝑠𝑝𝑒𝑐𝑖𝑒 × 100 á𝑟𝑒𝑎 𝑏𝑎𝑠𝑎𝑙 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑝𝑎𝑟𝑐𝑒𝑙𝑎 Índice de Valor (IV) 𝐼𝑉 = 𝐷𝑅 + 𝐷𝑀𝑅 Además en cada uno de los transectos con sus respectivas frecuencias se obtuvieron: riqueza, diversidad (índice de Simpson), e índice de similitud (Bray Curtis, 1957), calculados en el programa PAST. Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 99 Según (Golicher, 2012), la fórmula para el índice de Simpson es: Donde S es el número de especies, N es el total de organismos presentes (o unidades cuadradas) y n es el número de ejemplares por especie. En la ecología y la biología , la disimilitud Bray-Curtis (1957), es una estadística que se usa para cuantificar la disimilitud en la composición entre dos sitios diferentes, basadas en conteos en cada sitio. Según la definición de Bray y Curtis, el índice de similitud: Donde sitios. es la suma del valor menor para únicamente aquellas especies en común entre ambos ,y son el número total de especímenes contados en ambos sitios.El índice se reduce a 2C / 2 = C, donde la abundancia en cada sitio se expresan como un porcentaje. El tratamiento adicional se puede encontrar en Legendre y Legendre. La disimilitud de Bray-Curtis está directamente relacionada con el índice de similitud de Sørensen entre los mismos sitios: . La disimilitud de Bray-Curtis está obligado entre 0 y 1, donde 1 significa que los dos sitios tienen la misma composición (es decir que comparten todas las especies), y 0 significa que los dos sitios no comparten ninguna especie. En los sitios con donde AC es intermedia (por ejemplo, AC = 0,5) este índice se diferencia de otros índices comúnmente utilizados. 3. Resultados 3.1. Composición florística En total se obtuvo 156 especies,107 Géneros y 39 familias, las familias con más especies son: Moraceae con 18, Fabaceae con 16 especies, Urticaceae con 12, Meliaceae con 10, Rubiaceae con 8, Euphorbiaceae con 7, Arecaceae , Myristicaceae, Sapotaceae y Melastomataceae con 6; el resto de familias con valores menores. Estas diez familias mencionadas (de las 39 familias en total), contienen 95 especies es decir el 60.89% del total de familias. En la Tabla 2 se encuentra las treinta especies con mayores índices de valor (IV), distribuidas en los 9 transectos, en la mayoría de los casos no se repiten las especies en los transectos, las especies que lo hacen con mayor frecuencia son: Ficus tonduzii Standl., Guarea kunthiana A.Juss, en 5 de los 9, Trichilia pleeana (A.Juss.) C.DC., en dos de los 9 transectos pero con Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 100 valores mayor de 25% “IV”, El resto de especies no tienen representabidad en menos del 20% de los transectos en estudio. Tabla 2. Listado de especies con sus respectivos índices de valor de importancia (IV) en los 9 transectos: T1-T5: Río Palenque; T6-T8: Shushufindi; T9: Chilicay. Familias Especies T1 T2 T3 T4 T5 T6 T7 T8 T9 Meliaceae Trichilia pleeana (A.Juss.) C.DC. 0 Moraceae Ficus tonduzii Standl. Urticaceae Moraceae 0 0 0 0 30,3 24,8 0 0 15,4 8,21 3,5 4,57 0 4,16 16,5 0 0 Cecropia sp. 2 0 0 0 0 Castilla elástica Sessé 0 0 12,4 22,4 0 Cannabaceae Trema micranta (l.) Blume 0 0 27,4 0 Fabaceae Erytrina edulis Triana ex Micheli 0 10,7 0 Sapotaceae Pouteria sp. Urticaceae 0 0 0 0 0 0 0 0 0 0 0 0 11,3 0 0 0 0 3,45 16,9 0 0 0 0 0 0 0 Cecropia sciadophylla Mart. 0 0 0 18,2 0 0 0 0 0 Malvaceae Ceiba pentandra (L.) Gaertn. 0 0 0 0 0 0 0 17,7 0 Fabaceae Inga edulis Mart. 0 0 0 0 0 0 0 17 Meliaceae Ruagea pubescens (Rich.) A.Juss. 0 0 0 0 0 4,38 1,73 0 10 Moraceae Batocarpus orinoscensis H.Karst. 0 0 0 0 0 7,38 5,44 0 2,7 Urticaceae 10,8 4,65 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 14,1 0 0 13,4 0 0 0 0 0 0 0 0 0 0 10,1 2,06 0 0 Moraceae Cecropia sp. Tetrathylacium macrophyllum Poepp. Otoba gracilipes (A.C.Sm.) A.H.Gentry Dendropanax arboreus (L.) Decne. & Planch. Clarisia racemosa Ruíz & Pav. 0 1,65 0 4,56 3,38 0 2,5 Fabaceae Myroxylon balsamum (L.) Harms 0 0 0 0 0 3,7 4,18 3,96 0 Meliaceae Carapa guianensis Aubl. 0 1,46 0 0 0 0 0,53 0 9,67 Moraceae Sorocea puvibena 0 0 0 0 0 0 0 0 11,6 Myristicaceae Virola elongata (Benth.) Warb. 0 0 0 0 0 10,5 0 0 0,8 Urticaceae Cecropia obtusifolia Bertol. 1,89 0 9,27 0 0 0 0 0 0 Moraceae Maclura tinctoria (L.) Steud. 0 1,55 4,01 5,38 0 0 0 0 0 Fabaceae Inga sp.3 1,49 6,15 1,91 1,18 0 0 0 0 0 0 0 0 10,2 0 0 0 0 0 0 0 0 0 0 0 0 9,45 0 0 0 0 0 0 0 9,4 0 0 0 9,4 0 0 0 0 0 0 Salicaceae Myristicaceae Araliaceae Indeterminada Indeterminada3 Cordia alliodora (Ruiz & Pav.) Boraginaceae Oken Trichilia cipo (A.Juss.) C.DC. Meliaceae 0 39,6 0 0 0 0 0 Moraceae Ficus macbridei Standl 0 Meliaceae Guarea kunthiana A.Juss. 1,43 0 0 0 0 0,95 0,81 1,14 4,96 Meliaceae Guarea ptorrahchis Harms 0 0 0 0 0 0 9,23 0 0 Con respecto al mayor valor de “IV”, pertenece a la especie Cecropia sp.2 con 39,56% que solo está en el T5, Trichilia pleeana (A.Juss.) C.DC. con 30.32% en el T6 y 24.84 en el T7, Ficus tonduzii Standl con el 16,47 en el T7. Como se puede apreciar entre los 10 “IV” altos solo Cecropia sp.2 tiene valor alto en un solo transecto; si a los 10 “IV” mayores agrupamos en las Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 101 familias respectivas, tendremos que las familias más representativas son Urticaceae, Moraceae y Fabaceae con 2 especies y el resto se distribuyen en familias como Cannabaceae, Sapotaceae, Malvaceae y Meliaceae. 3.2. Diversidad El listado de especies (Tabla 2) se ingresó en el programa PAST generándose el índice de diversidad de Simpson que fluctúa de 0.92- 0.95 (Tabla 3), el cual resulta que los valores son altos en base al número de especies e individuos en cada transecto ya que todos los valores son cercanos a 1. En cuanto a la relación entre el número de especies y de individuos no encontramos un patrón común, ya que los transectos con alto número de especies e individuos no alcanzan los altos valores del índice de diversidad. Tabla 3. Datos de los cinco transectos con datos de abundancia y diversidad: T1-T5: Río Palenque; T6-T8: Shushufindi; T9: Chilicay T1 T2 T3 T4 T5 T6 T7 T8 T9 Especies 26 27 6 22 21 24 29 23 23 Individuos 42 45 35 51 64 80 101 47 70 I. Simpson 0,95 0,95 0,92 0,92 0,93 0,92 0,93 0,94 0,93 3.3. Similitud La Figura 1 indica que hay 4 grandes grupos:1) integrado por los transectos 1-4, 2) conformado por el T5, 3), conformado por T8; tanto el T5 y el T8 fueron tomados de sitios disturbados y 4), conformado por T6-T7 y T9. Hay varios subgrupos que tienen dicotomía o cierta dicotomía, generalmente se agrupan por localidad es decir 1-4: Río Palenque, 6-7: Shushufindi, y el T9 no tiene dicotomía por ser un transecto en localidad única; como mencionamos el T5 y T8 son muy diferentes del resto por ser 1 2 4 3 5 8 9 7 6 de sitios disturbados. 0,96 0,84 0,72 Similarity 0,60 0,48 0,36 0,24 0,12 0,00 Figura 1. Dendrograma del índice de Bray- Curtis con los 14 transectos en estudio Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 102 4. Discusión Según Jorgensen & León Yánez (1999), la comparación de la composición de especies en las cuatro diferentes regiones revela bajos niveles de similitud entre ellas pero la similitud más alta se encuentra entre la Amazonía y la Costa. Por tal razón en términos generales, a nivel de familias coiciden con los grandes grupos encontrados como Fabaceae, Moraceae, Melastomataceae, Meliaceae, Rubiaceae, Urticaceae (Cecropia), Euphorbiaceae y Arecaceae coincidiendo con otros estudios: Cerón (1997), Balslev (1987), Romero et-al (2001), Phillips (2003), Bonifaz & Cornejo (2004). Los valores del “IV” no superan el 40%, esto puede suponer que las especies se encuentran distribuidas por todo el bosque pero, como ocurre en toda comunidad diversa, su abundancia es poco equitativa (Hubbell & Foster, 1992). El índice de Simpson indica la relación entre riqueza o número de especies y la abundancia o número de individuos por especies en cualquier sitio dado (Moreno, 2001; Smith & Smith, 2003); excepto para el caso de unas pocas especies de una comunidad no hay ninguna relación entre la riqueza de una comunidad (número de individuos) y su diversidad En los transectos en estudio obtuvimos índices que van de 0.92 a 0.95 que es una diversidad alta como en Conditt (2002), Romero (2001), Pitman (2001) y Valencia (2004). La “hipótesis de la perturbacion intermedia” en Rabinowrtz (1986), propone que en términos de la composición de especies una comunidad nunca alcanza el equilibrio y que una alta diversidad es el resultado de un constante cambio en las condiciones del ecosistema. El modelo de la perturbación intermedia postula que la diversidad de especies alcanza su máximo cuando las perturbaciones ocurren a frecuencias e intensidades “intermedias”; es decir a perturbaciones intermedias mayor diversidad, es por ello que en las zonas de estudio se pudo observar bosque secundarios con distinto grado de conservación que se han agrupado en menor o mayor grado excepto el T5 y T8 que son bosques disturbados lo corrobora el dendrograma de Bray Curtis (Fig.1). A comparación de otros ecosistemas en el Ecuador, los bosques húmedos tropicales amazónicos tienen muchos estudios, pero la mayoría de ellos es en base a parcelas permanentes de 1 Ha (Ter teege et-al 2013; Conditt et-al 2002; Valencia et-al 2004). Cuando se popularizaron los estudios de diversidad de bosques en el Ecuador la metodología empleada fue diseñada por Alwin Gentry (Phillips 2003), que despertó el interés para hacer estudios de mayor tamaño; no por esto deberían ser desestimados actualmente los estudios de transectos (Caranqui, 2011), ya que 1000m² es un área mínima para encontrar información importante sobre ecología de los bosques amazónicos (Romero, 2001; Phillips, 2003), es ideal hacer parcelas de 1Ha, pero ello conlleva a mayor recursos. En este estudio se ha confirmado que los datos cuantitativos (familias), y conceptos ecológicos coiciden con los datos en las que se ha realizado en una hectárea. Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 103 5. Conclusiones y recomendaciones La biodiversidad de los transectos según el índice de diversidad de Simpson es alto entre los transectos estudiados (0.87-0.95). Pero al comparar los transectos con las especies y sus valores los transecto 5 y 8 son diferentes al resto de transectos; esto se debe a la perturbación intermedia que sufren estos bosques. Con los resultados presentados la familia Fabaceae tienen los mayores valores y coinciden con los estudios existentes de este tipo de bosque. Agradecimientos Doy fe de agradecimiento a las siguiente personas que colaboraron con la realización de este documento: Blgo. Fredy Villao, Dr. Bryan Maclaren, Blgo Xavier Cornejo , Dr. Tim McDowel, Ing. Marcelo Pino, Msc. Alina Freire, estudiantes de Maestría Forestal UTEQ 2012. Bibliografía Balslev, H., Luteyn, J., Øllgaard, B., & Holm-Nielsen, L. B. (1987). Composition and structure of adjacent unflooded and floodplain forest in Amazonian. Ecuador.Opera Botanica, 92, 37-57 Bonifaz, C., y X. Cornejo. (2004). Flora del bosque de Garúa en Loma Alta. Universidad de Guayaquil. Páginas: 8-17 Bray, J. R & , J. T.Curtis. (1957). An ordination of the upland forest communities of southern. Wisconsin. Ecological monographs, 27(4): 325-349 Caranqui, J. (2011). Estudios básicos de bosques montanos en el centro del Ecuador. Editorial Académica Española. 67 páginas. Publicado en Alemania. Cerón, C.E., (2003). Manual de Botánica ecuatoriana: Sistemática y Métodos de estudio”. Facultad de Filosofía. Letras y Educación. Universidad Central del Ecuador. Quito – Ecuador. Pp.281282. Cerón, C. E., & Montalvo, C. (1997). Composición y estructura de una hectárea de bosque en la Amazonía Ecuatoriana, con información etnobotánica de los Huaorani. Estudios sobre diversidad y ecología de plantas. Pontificia Universidad Católica del Ecuador publicaciones. Quito, 153-172. Condit, R., Pitman, N., Leigh, E. G., Chave, J., Terborgh, J., Foster, R. B., ... & Hubbell, S. P. (2002). Beta-diversity in tropical forest trees. Science, 295(5555), Pp.666-669. Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 104 Denslow, J.S.. (1985). Disturbance mediated coexistence os species. En The ecology of natural disturbance and patch dynamics(307-323). USA: Academic press. Golicher, D . (2012). ¿Cómo cuantificar la diversidad de especies?. Tomado de: http://www.dfpd.edu.uy/cerp/cerp_norte/cn/Biologia/BIODIV/Como%20cuantificar%20la%20d iversidad,%20algunos%20ejercicios.pdf Hubell, S.P. and R.B. Foster.( 1992). Short-term dynamics of a neotropical forest: whith ecological research matters to tropical conservation and management. Oikos 63: 48- 54. Jørgensen, P. M . and S. León-Yánez. (1999). “Catalogue of the vascular plants of Ecuador”. Missouri Botanical Garden. MacArthur, R. H., & E. O. Wilson. (1963). An equilibrium theory of insular zoogeography. Evolution, 17(4), 373-387. Missouri Botanical Garden. (2013, Nov.) Base de datos trópicos. (En línea). Disponible en htpp://www.tropicos.org. Moreno, C.E. (2001). Métodos para medir la Biodiversidad. M & T- Manuales y Tesis SEA, vol. ¡. Zaragoza- España.. 84 pag. Neill, D. Vegetación. (1999). En Catálogo de plantas vasculares del Ecuador, J.Jorgensen & S.León-Yañez (ed.). (2002). Saint Louis Missouri. P. 13-17 Phillips, O., and J. S. Miller. (2002). Global patterns of plant diversity: Alwyn H. Gentry's forest transect data set. Monographs in Systematic Botany from the Missouri Botanical Garden 89: 1–319. Pitman, N. C., Terborgh, J. W., Silman, M. R., Núñez V, P., Neill, D. A., Cerón, C. E., & Aulestia, M. (2001). Dominance and distribution of tree species in upper Amazonian terra firme forests. Ecology, 82(8),Pp.: 2101-2117. Rabinowrtz, D., Cairns, S., & Dillon, T. (1986). Seven kinds of rarity,pags. 182-204. In M.E.Soule(Editor). ConservationBiology.Sinauer,Sunderland,Massachuses.RZ. Romero-Saltos, H., Valencia, R., & Macía, M. J.( 2001). Patrones de diversidad, distribución y rareza de plantas leñosas en el Parque Nacional Yasuní y la Reserva Étnica Huaorani, Amazonía ecuatoriana. Evaluación de productos forestales no maderables en la Amazonıa noroccidental, 131-162. Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 105 Sierra, R. (1999). “Propuesta Preliminar de un Sistema de Clasificación de Vegetación para el Ecuador Continental”. Quito – Ecuador. Pp.63-64 Smith, L and T. Smith. (2001). Ecología. Pearson Education. Madrid.. Pag. 664.ter Steege, H., Pitman, N. C., Sabatier, D., Baraloto, C., Salomão, R. P., Guevara, J. E.,& Fine, P. V. (2013). Hyperdominance in the Amazonian tree flora. Science, 342(6156). Valencia, R., H., Balslev, W., Palacios, D., Neill., C. Josse., M. Tirado & F. Skov. (1998). Diversity and family composition of tress in different regions of Ecuador: a sample of 18 onehectare plots. Pp 569–584. En F. Dallmeier and J. A. Comiskey(eds.). Forest Biodiversity in North,Central and South America and the Carribean: Research and Monitoring.Man and the Biosphere Series 21. Unesco and The Parthenon Publishing Group.Carnforth. Valencia, R., Foster, R. B., Villa, G., Condit, R., Svenning, J. C., Hernández, C., & Balslev, H. (2004). Tree species distributions and local habitat variation in the Amazon: large forest plot in eastern Ecuador. Journal of Ecology, 92(2),Pp.: 214-229. Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105 Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/07/23 Aceptado (Accepted): 2015/09/21 CC BY-NC-ND 3.0 Real-Time Embedded Control System for a Portable Meteorological Station (Sistema de Control Embebido en Tiempo Real para una Estación Meteorológica Portátil) Marcelo Moya1, Gonzalo Guerrón1, Andrés Montero1 Abstract: The aim of this work is to design and code an embedded system for a portable automatic weather station. The portable station includes high performance sensors to measure parameters such as: i) wind speed and direction, micro perturbations and wind gusts, ii) air temperature, iii) solar radiation, iv) relative humidity, and v) atmospheric pressure. The main contribution of this work is the development of an embedded control system operating in real time. This system is based on a Field Programmable Gate Array (FPGA) device. The method developed guarantees high-resolution data acquisition of a number of samples in real time. The samples obtained are grouped and stored in a database, which will be used as a starting point for further analysis. Keywords: FPGA, Real Time, embedded, FIFO, resolution, meteorology, Butterworth. Resumen: El objetivo de este trabajo es diseñar y programar un sistema embebido para una estación meteorológica automática portátil. La estación portátil incluye sensores de alto rendimiento para medir parámetros tales como: i) la velocidad y dirección del viento, micro perturbaciones y ráfagas de viento, ii) la temperatura del aire, iii) la radiación solar, iv) la humedad relativa, y v) la presión atmosférica. La principal contribución de este trabajo es el desarrollo de un sistema de control embebido que opera en tiempo real. Este sistema se basa en un sistema de compuertas lógicas programables en campo (FPGA). El método propuesto garantiza la adquisición de datos a alta resolución de un número de muestras en tiempo real. Las muestras obtenidas se agrupan y se almacenan en una base de datos, que será utilizado como punto de partida para su posterior análisis. Palabras clave: FPGA, Tiempo Real, embebido, FIFO, meteorología, Butterworth. 1. Introduction Ecuador faces the lack of high quality meteorological data due to the outdated equipment and obsolete methods for data analysis. In order to solve this problem, the National Institute of Meteorology and Hydrology (INAMHI) is implementing a campaign for replacing conventional weather stations with new equipment; however, the replacement cannot be completed in a short period of time covering the whole country. It is also imperative to include data transmission devices in most of the new stations, to have a faster access to collected data and to analyze data through new control methods. 1 National Institute of Energy Efficiency and Renewable Energy (INER), Quito – Ecuador ( {marcelo.moyal, gonzalo.guerron, andres.montero} @iner.gob.ec ) 107 According to INAMHI (INAMHI, 2014), the national network of weather stations counts with 519 meteorological stations in Ecuador, of which 41% use pluviometers, a 29% of the stations are employed for climatology, and a merely 2% are used for agro meteorological research (13 stations). It is important to emphasize that an important public network of automatic meteorological stations exists at the south of the country, in the provinces of Loja, El Oro and Zamora Chinchipe. Unfortunately most of these stations are out of service, in technical obsolescence state, or they are insufficient for satisfying the country needs. According to Popa (2011) there are a variety of solutions for climate monitoring. The classic solution consists of static meteorological stations that collect data and later to submit data by wired systems to a main station. The problem with this approach is that it needs constant maintenance and supervision. Another solution is based on a network of wireless sensors that are placed in the desired zone. These devices collect all the weather information and then transmit it to the main base. The most common way of monitoring meteorological variables is through the use of Automatic Weather Stations (AWS) (Abbate, Avvenuti, Carturan, & Cesarini, 2013), which can be used as main platform for wireless sensors networks. With the improvement of research and development in automatic static meteorological stations, manual stations are gradually transforming into manual and automatic stations that can be operated easily (Jian-Ming Li, 2010). Zhen Fang (2010) proposed a practical and economical solution that consists of a micro station that is portable, has a small size, and brings several other benefits. The system presented in this paper is based on Field Programmable Gate Array (FPGA) devices, which allow programing based on logical blocks. These elements permit high-level parallel processing and analysis of different meteorological parameters. A 16-bit analog input/output central processing unit (CPU) was used for that purpose. The control program, that includes filtering and signal scaling through FPGA devices, was developed in LabVIEW. This method guarantees high-resolution and a big number of samples on the data acquisition in real time. These samples are grouped and stored in a database, which is used as a starting point for further analysis according to the methodology which will be established in the Section 3.1. This paper presents in Section 2 basic definitions on FPGAs and real–time control. Section 3 provides technical details of the proposed solution. In Section 4, preliminary results and implementation aspects are covered. Finally, the article concludes with future work. 2. Methodology Embedded systems use automation specific functions based on programmable CPUs. The programming of these systems can be done with different development tools. This section provides the basis of these tools. Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 108 2.1. Field programmable gate array A Field Programmable Gate Array (FPGA) consists of a combinational array of interconnected logic gates that can be configured after manufacturing hence field programmable. The FPGA configuration is generally specified using a hardware description language (HDL), similar to that used for an application-specific integrated circuit (ASIC). The digitally generated program reorders physically the logic gates to obtain the required configuration once its compile. The gates are connected to Look Up Tables (LUT) which are used to save processing time. Jointly with the shift register and multiplexors, specialized high performance circuits can be developed, heavily depending of the amount of combinational gates contained in the FPGA cells. The current development of FPGAs technology focuses on the implementation of dedicated functions such as: RAM memory management, signal processing blocks of high performance, high speed memory interface, and logical blocks with arithmetic and control specific functions. 2.2. Real time control systems The development of real–time systems allows to handling big amounts of data at high speed for information processing, and for improving the system response, either in control and problem solving (Giannone et al., 2011). The real time processor provides determinism in the sense that the system is enabled to determine or predict with precision whether the program blocks are executed, obtaining as a result a dedicated system for specific applications (Salzmann, Gillet, & Huguenin, 2000). The LabVIEW real time (RT) processors use a FPGA to perform the data acquisition. These RT processors are able to use all their resources in data treatment. This is possible since each FPGA data input is configured to create First in First out (FIFO) data storage buffer which are transmitted to the processor’s memory, and processed (Zheng, Liu, Zhang, Zhuang, & Yuan, 2014). Figure 1 shows a simplified embedded system diagram for data acquisition using FPGA and RT. 2.3. Embedded control system operating in real time The block diagram shown in Figure 2 represents the internal operation of the control system, data acquisition and data base storage. It also describes the interrelationships between the memory blocks and the data buses. An embedded system that works with low energy consumption is created to ensure continuous operation and no human supervision. The hardware configuration is mainly conformed by an embedded system based in two technologies: i) Field Programmable Gate Arrays (FPGA) for high speed data acquisition, and ii) real time processing (RT) for data administration. Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 109 The data acquisition is done through one analogic module and one digital module, and each module performs the analog-digital conversion required by the FPGA. Through a Peripheral Component Interconnect (PCI) data bus, the FPGA communicates with the real time processor (RT). This acquires the data from the FIFO and converts them into a double data type format achieving the format needed to perform logical operations. Wind ultrasonic sensor connects to RT using RS-232 protocol, and the sampling is made every second. Figure 1. Embedded system for data acquisition with FPGA and RT Figure 2. Block Diagram of the portable weather station Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 110 2.4. Software Functional Description The software design is also divided into two main parts: i) FPGA, and ii) real time processor. In the case of the FPGA, an analogical channel configuration was performed to set their voltage levels and measurement type. In order to start the data acquisition at different voltage levels, digital low-pass filters Butterworth were created with a cutoff frequency of 400 mHz. This action eliminates noise from temperature sensor, avoiding the use of physical analogical filters (reducing energy consumption) and improving uncertainty in signal measurements. The signal processing filter applied to the control system is fitted with the Butterworth polynomials. In this work the four degree of Butterworth showed in Equation 1 is proposed (Paarmann, 2001). H (s) = 1/(s4+2.613126s3+3.414213s2+2.613126s+1) (1) where H(s) is the cutoff amplitude in decibels (dB) and (s) is the cutoff frequency (Hz). This model achieves high speed and precision for the acquisition and transmission of suspicious values. The signals of radiation, humidity, and pressure sensors are fitted based on the signal processing filter. Data collection of each element is made through a direct access to memory (DMA). The FIFO data storage is used to communicate FPGA and RT. This represents an increment on speed data transmission due to the FPGA memory use and the RAM memory of the RT host. Similarly, a specialized data acquisition and signal filtering over the FPGA processor is developed (Cantó Navarro, 2010). The wind data signal obtained through the ultrasonic anemometer is sent to the controller through the RS-232 serial protocol to then choose the important information using logic digital gates. In order to implement an edge detector, the signals are processed using digital converters and a state machine to restart the pulse counter value to zero every ten minutes. Finally, the stored arrangements are sent to an iterative loop to perform averages every ten minutes of each meteorological variable recorded by the station. The data is printed out in a plain text format that corresponds to the database which stores in the non-volatile memory of the device. 3. Results and Discussion In order to test the real time and FPGA based control system, a portable meteorological station shown in Figure 3 was used. A portable meteorological station should have capacity to keep up to seven different sensors (Barrenetxea et al., 2008) as in this case. All the sensors are located on a Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 111 10–meter mast as recommended by the general standards and practices from the World Meteorology Organization. Figure 3. Portable meteorological station The power supply is composed of a voltage regulator with 1V, 5V and 12V taps and a 50W photovoltaic cell to power the entire system. The solar cell supplies 2.79A at 17.9V to a sealed 12V and 34A rechargeable battery. The control system implementation was performed in a cRIO 9068 CPU which includes a Field Programmable Gate Array (FPGA) for data acquisition and a real– time processor (RT) in its own architecture. The control algorithms were developed using the LabVIEW platform, a graphical environment that use G programing (Chouder, Silvestre, Taghezouit, & Karatepe, 2013). Figure 4 shows the recorded values of the sensors installed on the portable system. The stored data corresponds to the period from July 4th to July 11th, 2014 at a temporal resolution of ten minutes. Table 1 shows the daily average of each parameter analyzed using the proposed approach. Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 112 Figure 4. Plots of the collected data sample: Up) Pressure, global radiation, diffuse radiation, and wind direction. Down) T0-T4 Temperature, Humidity, Pluvial precipitation and Wind speed. Table 1. Collected data sample in a tabular representation. HUMID=Relative Humidity, PRESS=Atmospheric pressure, G. RAD= Global radiation, DIF. RAD.= Diffuse radiation, PRECIP=Atmospheric precipitation, W. SPEED= Wind speed, W. DIR=Wind direction HUMID PRESS G. RAD DIF. RAD. PRECIP W. SPEED Date T0 T1 Temperature (C) T2 T3 T4 %Rh hPa W/m2 W/m2 mm m/s W. DIR deg 04-07-14 12.94 16.78 12.78 16.85 20.09 69.39 717.08 158.12 69.88 0 1.05 203.15 05-07-14 12.96 16.73 12.72 16.76 19.99 71.05 716.39 127.68 43.97 0 1.01 189.95 06-07-14 13.53 17.23 13.41 17.29 20.11 66.84 716.08 155.95 69.62 0 1.32 161.42 07-07-14 12.86 16.53 12.61 16.59 19.9 66.21 716.85 127.02 45.05 0 1.19 200.89 08-07-14 13.51 17.13 13.36 17.15 19.68 53.79 717.35 159.21 75.33 0 1.93 228.17 09-07-14 15.05 18.49 14.87 18.54 20.21 46.65 716.12 216.04 126.15 0 2.17 219.86 10-07-14 14.28 17.64 13.86 17.73 19.46 45.78 715.43 163.96 80.14 0 1.69 223.62 11-07-14 12.81 16.06 11.87 16.2 18.16 57.07 715.13 75.27 0.75 0 1.63 273.18 The advantages of using this approach over traditional technologies are: scalability, precision, data acquisition speed, application-oriented configuration, portability, robustness, energy supply autonomy, and parallel programing. A deeper evaluation of our approach is currently in process. 4. Conclusions and Future Work In this work, the programming development of a portable automatic weather station with capabilities to measure meteorological variables was presented. The design included a sustainable Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 113 solution which is based on a photovoltaic system to ensure continuous operation and protection against failures due to lack of energy and unexpected reboots. In order to validate the results obtained from the proposed weather automatic station, the portable system will be installed at the Villonaco wind farm in Ecuador where a fixed weather station is installed. In the near future, the portable weather station will be connected to Internet in order to broadcast the obtained information. Also an exhaustive analysis is planned using some data mining techniques. Acknowledgements The authors of the present work wish to thank to Secretaría de Educación Superior, Ciencia, Tecnología e Innovación from Ecuador (SENESCYT) for financing this research. References Abbate, S., Avvenuti, M., Carturan, L., & Cesarini, D. (2013). Deploying a Communicating Automatic Weather Station on an Alpine Glacier. Procedia Computer Science, 19(0), 11901195. doi: http://dx.doi.org/10.1016/j.procs.2013.06.170 Barrenetxea, G., Ingelrest, F., Schaefer, G., Vetterli, M., Couach, O., & Parlange, M. (2008). SensorScope: Out-of-the-Box Environmental Monitoring. 332-343. doi: 10.1109/ipsn.2008.28 Cantó Navarro, L. G., Fons Lluis, Ramos Lara. . (2010). Sistema Embededido de Rápida AutoReconfiguración. Chouder, A., Silvestre, S., Taghezouit, B., & Karatepe, E. (2013). Monitoring, modelling and simulation of PV systems using LabVIEW. Solar Energy, 91(0), 337-349. doi: http://dx.doi.org/10.1016/j.solener.2012.09.016 Giannone, L., Eich, T., Fuchs, J. C., Ravindran, M., Ruan, Q., Wenzel, L., . . . Concezzi, S. (2011). Data acquisition and real-time bolometer tomography using LabVIEW RT. Fusion Engineering and Design, 86(6–8), 1129-1132. doi: http://dx.doi.org/10.1016/j.fusengdes.2011.03.119 INAMHI. (2014). Instituto Nacional de Meteorología e Hidrología. Retrieved July17th 2014 Jian-Ming Li, L. H., Shu-Yong Zhen, Lun-Tao Yao (2010). The assessment of automatic weather station operating quality based on fuzzy AHP. Ninth International Conference on Machine Learning and Cybernetics, Qingdao. Paarmann, L. D. (2001). Design and analysis of analog filters: a signal processing perspective (Vol. 617): Springer Science & Business Media. Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 114 Popa, M. (2011). Embedded Weather Station with Remote Wireless Control. 19th Telecommunications forum TELFOR. Salzmann, C., Gillet, D., & Huguenin, P. (2000). Introduction to real-time control using LabVIEWTM with an application to distance learning. Int. J. Engng Ed, 16(5), 372-384. Zhen Fang, Z. Z., Lidong. Du, Jiangang Zhang, Cheng Pang, Daoqu Geng. (2010). A New Portable Micro Weather Station. Zheng, W., Liu, R., Zhang, M., Zhuang, G., & Yuan, T. (2014). Design of FPGA based high-speed data acquisition and real-time data processing system on J-TEXT tokamak. Fusion Engineering and Design, 89(5), 698-701. Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114 Enfoque UTE, V.6-N.3, Sep.2015, pp. 115 - 132 http://ingenieria.ute.edu.ec/enfoqueute/ e-ISSN: 1390‐6542 / p-ISSN: 1390-9363 Recibido (Received): 2015/08/14 Aceptado (Accepted): 2015/09/21 CC BY-NC-ND 3.0 Indicadores de contaminación visual y sus efectos en la población (Visual pollution Indicators and its Effects on Population) Valeria Fuentes Correa1, Anita Argüello Mejía1 Resumen: Uno de los sectores donde se puede distinguir un aumento de la actividad comercial es la parroquia de Cotocollao, ubicada en el Distrito Metropolitano de Quito. Este desarrollo comercial ha significado un incremento de la publicidad exterior del sector, lo que supone una fuente de contaminación para el lugar. La presente investigación tiene como objetivos estimar los niveles de contaminación visual en un sector de la parroquia Cotocollao, y los efectos que esta tiene en la población, proponer indicadores de medición, analizar los puntos críticos que tiene el sector con respecto a la contaminación visual existente y el cumplimiento de la normativa local con respecto a la publicidad exterior fija en el sector. La metodología utilizada se basó en la propuesta de indicadores fabricados con base a la legislación local vigente, los cuales son planteados para realizar un análisis cuantitativo de este tipo de contaminación y así estimar los niveles existentes; y la aplicación de encuestas en la población del lugar para realizar un análisis cualitativo de los efectos de este tipo de contaminación. Los niveles estimados de contaminación visual presente en dicho sector han sido Medio y Medio-Alto en su mayoría y los efectos que este tipo de contaminación ha tenido en la población son cansancio visual, dolor de cabeza, estrés, obstrucciones visuales, entre otros. Palabras clave: contaminación visual, Efectos en las personas, Indicadores, Publicidad. Abstract: One of the areas where you can distinguish an increase in business activity is Cotocollao parish, located in the Metropolitan District of Quito, this commercial development has meant an increase in the outdoor advertising, which is a source of visual pollution. The aims of this investigation are estimate levels of visual pollution in an area of Cotocollao parish, and its effects on the population, propose indicators measuring, analyzing critical points that the area has with respect to the visual pollution and compliance with respect to the outdoor advertising set in the sector. Methodology is based on the proposal of indicators made based on the research conducted and local regulations, which are proposed for a quantitative analysis of this type of contamination and thus estimate existing levels; and implementation of surveys on the population of the place to make a qualitative analysis of the effects of this pollution. Estimated levels of visual pollution present in this place were the Middle and Upper-Middle mostly, and effects that this pollution has had on the population are eyestrain, headaches, stress, visual obstructions, among others. Keywords: Visual Pollution, People Effects, Indicators, Publicity. 1 Universidad Tecnológica Equinoccial, Quito – Ecuador ( {fcva46063, aarguello} @ute.edu.ec ) 116 1. Introducción Existe varios tipos de contaminación en el ambiente, siendo los más conocidos y ampliamente analizados, los ocasionados a los tres grandes recursos: agua, aire y suelo; sin embargo, está presente también la contaminación urbana muy poco investigada, en la que se incluye la contaminación visual. Existen varios trabajos sobre temas relacionados a esta contaminación en varios países, siendo notable la falta de información al respecto, especialmente sobre estimaciones de los niveles de contaminación visual en el país, sus efectos en la población, así como métodos de medición. La investigación acerca de contaminación visual es importante, ya que puede existir un incremento de este tipo de contaminación y a futuro se podrán observar las consecuencias que traen la misma. El objetivo principal de la presente investigación fue la estimación de los Niveles de contaminación visual en un sector de la parroquia Cotocollao ubicado en el Sector Zonal “La Delicia” y sus efectos en la población, mediante el establecimiento de indicadores de contaminación visual en un sector de la parroquia Cotocollao, basado en la normativa local e identificando los puntos críticos de contaminación visual en el sector. Esta investigación, contribuye con la estimación de los índices de contaminación visual en el sector de estudio y constituye de base para realizar otros estudios en varios sectores de la ciudad. Existen varios autores que definen a la contaminación visual, siendo: contaminación visual es el cambio o desequilibrio en el paisaje, ya sea natural o artificial, que afecta las condiciones de vida y las funciones vitales de los seres vivos (Jérez Paredes, 2007). Jérez hace hincapié en la afección directa a la población; mientras que Méndez, se refiere a la afectación visual en el paisaje: Se define a la contaminación visual como el abuso de ciertos elementos “no arquitectónicos” que alteran la estética, la imagen del paisaje rural o urbano (Méndez Velandia, 2013). “El impacto en la imagen y fisonomía del entorno urbano causado por la acumulación de materia prima, productos, desechos, abandono de edificaciones y bienes materiales, así como violación en las densidades y características físicas de publicidad” (Méndez Velandia, 2013). Como se puede observar, existen varias definiciones de contaminación visual, las mismas que, de manera general, se traducen a: contaminación visual es un tipo de contaminación de carácter urbano que es ocasionada por el uso excesivo de varios elementos ajenos al ambiente que alteran la estética y la imagen del paisaje ya sea natural o artificial, que afecta tanto a las condiciones, calidad de vida y las funciones vitales de los seres vivos. Este tipo de contaminación se puede encontrar en los espacios públicos, por lo que es necesario tener una definición del mismo. Se entenderá como Espacio Público, el espacio de dominio público o privado en el que la publicidad exterior colocada es visible; incluyendo el espacio privado susceptible a la misma y, el espacio de servicio general en los que la publicidad colocada sea Enfoque UTE, Sep.2015, pp. 115 - 132 117 visible desde el espacio público (art. 3 Ordenanza 0330 del Municipio del Distrito Metropolitano de Quito, 2010). Para la existencia de este tipo de contaminación existen varios focos: los espacios interiores, cables aéreos y antenas, estilos arquitectónicos mezclados, basureros, grafitis y pintadas, árboles y la publicidad exterior (Méndez Velandia, 2013). En el Sector Zonal “La Delicia”, el incremento de actividad comercial ha tenido un crecimiento gradual por lo que supone un aumento en publicidad trayendo consigo indicios de contaminación visual, por consiguiente los pobladores del sector son los principales afectados. De acuerdo con Méndez Veladia (2013), el principal agente de contaminación visual son los “carteles publicitarios” en todas sus presentaciones. La cantidad inmensurable de anuncios, todos de diferentes formas, tamaños y colores afecta a la salud de los seres humanos vulnerables a esto. Esta será la que se desarrolle en la presente investigación por ser parte del tema central de la misma. La publicidad exterior afecta el entorno, es el agente más notorio por su efecto inmediato en la población, creando una sobre-estimulación en el ser humano mediante la información indiscriminada, y los múltiples mensajes que invaden la mirada. Esta situación no sólo atenta contra la belleza del espacio público, sino también sobre la lectura poco clara que tienen los individuos del mismo, dificultando la identificación del habitante con su paisaje El espacio público se encuentra desvirtuado e invadido por postes, carteles, y la lamentablemente la vegetación puede verse destruida. Este panorama es terriblemente agresivo para el hombre común, por lo que podemos imaginar cuánto lo es para un discapacitado, niño o anciano, ya que este grupo de individuos se podría considerar que pueden tener un mayor nivel de influencia por sus condiciones (Couto, 2007). La contaminación visual publicitaria se agrava en tiempos de crisis económica, donde el achicamiento del mercado y la pelea por ganar espacios publicitarios conlleva la proliferación de anuncios ilegales y el abuso de la normativa vigente. La publicidad exterior trata de ser cada vez más atractiva y se apela a efectos tales como diseño, color, luz, movimiento, tamaño, siendo así un factor de distracción. El tema de contaminación visual generada por el uso excesivo de publicidad es mundial, como se puede ver en varios países, que cada vez presta mayor atención a este problema. En varios países del mundo ya existen leyes o proyectos de ley sobre el uso de la publicidad en espacios públicos; en Argentina, en la ciudad de Rosario; en Costa Rica, existen leyes bastante estrictas que tienen en cuenta este tipo de contaminación. La problemática de la contaminación visual provocada por la publicidad exterior fija podría sistematizarse en cuatro aspectos: cantidad (existen demasiados), tamaño (prácticamente no Enfoque UTE, Sep.2015, pp. 115 - 132 118 tiene límites), ubicación (se encuentran en cualquier lugar que uno mira), mensaje (muchas veces es de dudoso buen gusto o inapropiado para el medio en que se encuentra) (Couto, 2007). En el Ecuador, no existe una legislación específica de contaminación visual, pero existen ciertos instrumentos legales que son aplicables en este caso; en la Constitución Ecuatoriana (2008), en el artículo 66 dice. “Se reconoce y garantizará a las personas: El derecho a vivir en un ambiente sano, ecológicamente equilibrado, libre de contaminación y en armonía con la naturaleza.” Lo cual determina que las autoridades competentes deben velar por que la población disfrute de este derecho. En la Ley Orgánica de Transporte Terrestre, Tránsito y Seguridad Vial (2008) en el Capítulo IV Del Ambiente, en la Sección 2: De la contaminación visual, dice: “Se prohíbe la instalación en carreteras de vallas, carteles, letreros luminosos, paneles publicitarios u otros similares que distraigan a los conductores y peatones, afecten la seguridad vial, persuadan o inciten a prácticas de conducción peligrosa, antirreglamentaria o riesgosa.” Este tipo de planteamientos permite regular el uso de publicidad en distintos ámbitos de la ciudad, por lo cual es importante tomarla en cuenta en lugares donde existe circulación vehicular constante. En el Reglamento de la Ley de Transporte Terrestre, Tránsito y Seguridad Vial (2012) en el Capítulo III De la contaminación visual, dice: “Se prohíbe la instalación de rótulos tanto internos como externos que afecte la visibilidad del conductor y de los usuarios, salvo los que sean parte de la señalética de información e identificación autorizadas por la Agencia Nacional de Tránsito o por los GADs. Los agentes de tránsito estarán autorizados a retirar la rotulación no autorizada”. Aunque la competencia de este control está establecida en este reglamento, la misma forma parte de las atribuciones que tiene el Municipio del Distrito Metropolitano de Quito. Con los artículos anteriores se complementan con los artículos de las siguientes ordenanzas a ser explicadas. En la Ordenanza 0330 del Distrito Metropolitano de Quito del año 2010, señala que es indispensable regular la utilización o el aprovechamiento del espacio público a través de la colocación de publicidad exterior en el Distrito Metropolitano de Quito, con el fin primordial de compatibilizar esta actuación con la protección de la seguridad ciudadana, la prevención de la contaminación ambiental, la protección, el mantenimiento y la mejora de los valores del paisaje urbano, y el buen uso del espacio público. En la misma Ordenanza, estipula: “El presente título tiene por objeto regular las condiciones a las que se sujetarán las instalaciones y el ejercicio de la actividad publicitaria exterior, cualquiera que sea el medio o sistema utilizado para la transmisión del mensaje, con el fin primordial de compatibilizar la colocación de la publicidad exterior con la seguridad de las personas, los bienes o el ambiente, y mantenimiento y mejora del ornato y paisaje del Distrito Metropolitano de Quito.” Esta ordenanza es la única que regula el uso de Enfoque UTE, Sep.2015, pp. 115 - 132 119 publicidad en Quito, por lo cual será utilizada para la construcción de los indicadores de contaminación visual. La problemática actual se centra en que no existe un medio adecuado de medición de contaminación visual, es un fenómeno de polución de características singulares, debido a que no se transmite a través de un vector sobre el que se pueda actuar, ya que este tipo de contaminación es subjetiva y depende, en su mayoría, de la percepción de las personas afectadas. Se observa que la publicidad exterior ha venido acrecentándose de manera paulatina, lo que significa un efecto negativo para el ambiente, aunque no se pude negar que la publicidad exterior es un medio generador de riqueza. Se manifiesta que los principales problemas que puede padecer una persona sujeta a contaminación visual son: stress, dolor de cabeza, mareos, ansiedad. También se puede indicar otros daños, como: distracciones peligrosas, especialmente al volante, problemas de atención, disminución de la eficiencia laboral, mal humor, trastornos de agresividad (Jerez Paredes, 2007). Varios autores contribuyen a toda esta lista de efectos de la contaminación visual en la población, por ejemplo algunas otras incidencias de este tipo de contaminación son: alteraciones del sistema nervioso, impedimentos de transito libre y facilidad del mismo, la estética se ve afectada, desmejoramiento panorámico, problemas ecológicos (se rompe el equilibrio ecológico cuando algunas especies se alejan) y disminución de la eficiencia laboral, mal humor, trastornos de agresividad, cefaleas, etc. (Gallardo Pacheco, 2011). Como se puede ver en la Figura 1, se detalla el trayecto donde se realizó el estudio, se puede observar la puntualización del “Inicio” y “Fin” de la distancia investigada. El área de estudio tiene una longitud de aproximadamente 800 mts. Figura 1. Tramo de la Investigación (Google Earth, 2014) Enfoque UTE, Sep.2015, pp. 115 - 132 120 2. Metodología La metodología que se aplicó en esta investigación englobó una relación entre el ambiente y la población, ya que al ser un sistema, depende de estas interacciones. La metodología que se usó debe comprender tanto aspectos cualitativos como cuantitativos para conocer la presencia de contaminación visual y los efectos que tiene en sus habitantes. La investigación a realizar es de tipo no experimental descriptivo, ya que se realizó una investigación sin manipular deliberadamente las variables y se observaron los fenómenos tal y como se dan en su contexto natural para su posterior análisis; el uso de este tipo de investigación describió las relaciones existentes entre dos o más variables en un momento dado midiendo así dicha relación. El alcance de la presente investigación es realizar una estimación de los niveles de contaminación visual presente en el área de estudio así como los efectos que esta tiene sobre la población del sitio. La presente investigación se realizó en el Barrio Cotocollao ubicado en la Parroquia Cotocollao que se encuentra en el Sector Zonal “La Delicia”, específicamente desde la esquina de la calle Rigoberto Heredia hasta la calle Capitán Ramón Chiriboga, por las características que este trayecto posee. Los cambios en la fisonomía y las actividades del sector, así como su ubicación, son algunas de las razones para la selección de este barrio como objeto para la investigación de la presencia de contaminación visual. En el análisis de la contaminación visual y sus efectos en la población fue necesario utilizar varios tipos de investigación para conocer la situación actual con respecto al tema y a su vez ir profundizando en la misma. Por lo que se utilizó el método Deductivo Simple y el Combinado ya que en los mismos se unen tanto la investigación documental como la de campo. Se utilizó el tipo de Investigación documental para conocer el estado actual en el que se encuentra el análisis de la contaminación visual tanto a nivel internacional como nacional y así ir tomando guías para la realización de esta investigación. Posteriormente, se aplicó la investigación de campo para realizar una observación directa a los grupos y fenómenos, enfatizando en las variables a ser utilizadas en la investigación, es decir, analizar el área donde se manifiesta la contaminación visual y su relación con la población. Se realizó este tipo de investigación para que los datos requeridos sean recogidos de manera directa y así efectuar un análisis causa-efecto. El análisis cuantitativo se centró en el estudio de las relaciones entre variables cuantificables (aplicación de indicadores de contaminación visual), mientras que el análisis cualitativo lo hace en contextos estructurales y situacionales (aplicación de encuestas y categorización de los efectos de este tipo de contaminación) lo que permitió analizar la perspectiva de la población frente a la problemática así como los efectos que la contaminación visual tiene el los habitantes. Con estos Enfoque UTE, Sep.2015, pp. 115 - 132 121 análisis se determinaron los indicadores de la contaminación visual y los niveles de la misma por la presencia de la publicidad exterior fija (rótulos publicitarios), así como los efectos que esta tiene sobre la población. Para la aplicación de las encuestas se definió una muestra aleatoria de la población en el sector a analizar, partiendo del total de población en todo el barrio Cotocollao y no un especificado de la población total del sector a realizar la investigación, como se ve en la Ecuación 1: n= (total de casa*aproximado de habitantes por casa)*10% n= (180*4)*10% n= (720)*10% n= 72 (1) En la longitud del estudio existe un total de 180 casas (locales comerciales) aproximadamente, y se realizó una indagación de un aproximado de habitantes por vivienda, teniendo como resultado 4 personas aproximadamente. Se calculó el aproximado de 10% del total de la población para encontrar la muestra idónea. Por lo tanto, para que la muestra sea representativa, adecuada y válida, no se debe utilizar un número menor de 72 individuos. Para la observación directa de los hechos, se llevó a cabo un registro fotográfico de los niveles de contaminación visual con base en la presencia del contaminante a ser analizado: Publicidad Exterior Fija (Rótulos y Vallas). Para el levantamiento de esta información se usó como instrumento la Ficha de Observación. Este instrumento consta de varias variables que serán de utilidad para el posterior análisis y triangulación con los resultados de los otros instrumentos utilizados, así como también fueron útiles como fuente primordial para la fabricación de los indicadores de contaminación visual. Como primera instancia, se dividió el tramo a ser analizado en partes iguales, como se presenta en la Figura 2, para que en cada una de estas sea aplicada una ficha de observación y así ir completando las variables a ser analizados (8 tramos de 100m cada uno). La información en las fichas de observación requería realizar mediciones de la Publicidad Exterior Fija (vallas y rótulos) presente en cada tramo así como el número presente en cada vivienda, por lo tanto para completar las fichas de observación se realizó dos actividades: Medición del área de rótulo usando como equipo el distanciómetro, y el conteo directo de la cantidad de rotulación presente. Las encuestas se las realizaron mediante un cuestionario, el mismo que proporciona un sistema de análisis de los efectos visuales útil y fácil de documentar. La encuesta estuvo compuesta de 6 partes: objetivo, conocimientos generales de la población, conocimiento de publicidad exterior fija, conocimiento de contaminación visual, efectos de este tipo de contaminación. Para la determinación de existencia de contaminación visual así como los niveles de la misma, se establecieron indicadores que sean de utilidad para la generación de información y de esta Enfoque UTE, Sep.2015, pp. 115 - 132 122 manera contrastar los resultados para su posterior análisis y finalmente dar conclusiones al respecto. Figura 2. División de los tramos para aplicar Fichas de Observación (Google Earth, 2014) Para formular los indicadores, se estudiaron las reglamentaciones de varios países, y se analizó la información generada por los mismos. Esta información fue analizada y comparada, la misma ordenándose según sus coincidencias para el análisis de los indicadores de contaminación visual en otros países, tomando en cuenta la forma en cómo estos son aplicados: en general se definen por el número de vallas, ubicación, iluminación y cumplimiento de la normativa, entre otros. Tanto la información de la reglamentación como la existencia de indicadores de contaminación visual en otros países fueron realizadas con la investigación documental tanto física como digital. Una vez realizada esta investigación se procedió a seleccionar la información y adaptación a nivel nacional teniendo en cuenta las características con que debe contar la misma como practicidad, factibilidad, comparabilidad y así proceder a la formulación de los indicadores para su aplicación local. Los indicadores diseñados dependerán de la cantidad de información disponible así como la profundidad que esta posea, para que de esta manera los resultados del estudio tengan mayor veracidad. Se ha estructurado cinco indicadores básicos para el presente análisis de contaminación visual basándose principalmente en la Ordenanza Municipal 0330 “De la Licencia Metropolitana Urbanística de Publicidad Exterior - LMU (41)” del año 2010, donde existen reglas técnicas acerca de la publicidad exterior fija, los indicadores son: Enfoque UTE, Sep.2015, pp. 115 - 132 123 Indicador 1.- Porcentaje de rótulos por área. 𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 1 = 𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑥 100% 𝐶𝑎𝑑𝑎 100 𝑚 𝑓𝑎𝑐ℎ𝑎𝑑𝑎 El Objetivo es contabilizar la cantidad de rotulación presente en el sector, estableciendo así tramos donde la magnitud de colocación de publicidad exterior fija sea excesiva e ir categorizando de lugares donde la rotulación sea mayor que otras. Indicador 2.- Porcentaje de rótulos cuya área no cumple la norma. 𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 2 = 𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑐𝑜𝑛 𝑒𝑙 á𝑟𝑒𝑎 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 𝑙𝑎 𝑛𝑜𝑟𝑚𝑎𝑡𝑖𝑣𝑎 𝑥 100% 𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑎𝑑𝑎 100 𝑚. En la Ordenanza anteriormente descrita indica que la Publicidad Exterior Fija tiene un área determinada (3m2).ya que si un rótulo tiene mayor área que la permitida, el efecto que tiene sobre la población será mayor. El objetivo de este indicador es analizar la cantidad de rotulación que tiene mayor área en comparación con el área permitida por la ley sin tener en cuenta el número de publicidad legal o ilegal. Este indicador ayuda a visualizar la cantidad de publicidad exterior fija (rótulos) que tiene un área fuera de la ley, por lo tanto, el nivel de contaminación visual y los efectos en la población serán mayor si se encuentra fuera de la normativa. Indicador 3.- Porcentaje de rótulos cuya distancia con la que se encuentran montados sobre la fachada no cumple la norma. 𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 3 = 𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑚𝑜𝑛𝑡𝑎𝑑𝑜𝑠 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 𝑙𝑎 𝑛𝑜𝑟𝑚𝑎𝑡𝑖𝑣𝑎 𝑥 100% 𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑎𝑑𝑎 100 𝑚. En la Ordenanza hacer referencia a la distancia con la que se encuentra montada la Publicidad Exterior Fija, ya que si tienen una distancia mayor sobre la fachada (20cm), el efecto que esto ocasiona en la población es mayor en comparación a que se encuentren montados lo más cerca posible sobre las viviendas. Al igual que el Indicador 2 “Porcentaje de rótulos que no cumplen la norma”, la investigación de campo realizada es fundamental para este indicador. Indicador 4.- Porcentaje de locales comerciales con más de un elemento publicitario. 𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 4 = 𝑁° 𝑑𝑒 𝑙𝑜𝑐𝑎𝑙𝑒𝑠 𝑐𝑜𝑚𝑒𝑟𝑐𝑖𝑎𝑙𝑒𝑠 𝑐𝑜𝑛 𝑚á𝑠 𝑑𝑒 𝑢𝑛 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑝𝑢𝑏𝑙𝑖𝑐𝑖𝑡𝑎𝑟𝑖𝑜 𝑥 100% 𝑁° 𝑑𝑒 𝑙𝑜𝑐𝑎𝑙𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑜𝑚𝑒𝑟𝑐𝑖𝑎𝑙𝑒𝑠 Según la Ordenanza 0330 que se describió con anterioridad cada sitio debe tener como máximo un elemento publicitario, ya que el exceso de publicidad exterior fija presente en un solo sitio comercial, tiene mayor efecto en la población en comparación a aquellos que tienen un solo elemento publicitario. Al igual que el anterior indicador, para la fabricación de este es necesario Enfoque UTE, Sep.2015, pp. 115 - 132 124 realizar un trabajo de campo previo, donde se realiza un conteo de la cantidad de publicidad exterior fija presente en cada local comercial del sector. El objetivo de este indicador es conocer el número de sitios comerciales que cumplen con la ordenanza 0330 de elementos publicitarios máximos permitidos por la ley y analizar los sectores del estudio de trabajo donde existe una proliferación de Publicidad Exterior Fija ocasionando mayor contaminación visual. Indicador 5.- Presencia de contaminación visual 𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 5 = 𝑁° 𝑑𝑒 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑞𝑢𝑒 𝑎𝑐𝑒𝑝𝑡𝑎𝑛 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙 𝑥 100% 𝑁° 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑒𝑛𝑐𝑢𝑒𝑠𝑡𝑎𝑑𝑎𝑠 La presencia de este tipo de contaminación es algo subjetivo, depende de la perspectiva de la población del lugar y del análisis de la presencia de contaminación visual presente producto de la Publicidad Exterior Fija del lugar (Rótulos). Para la fabricación de este indicador fue fundamental la realización de encuestas a la población. El objetivo de este indicador es analizar la presencia de contaminación visual desde la perspectiva de la población del sitio a ser investigado. Una vez fabricados los indicadores se procedió a su aplicación para triangular la información y dar a conocer la presencia de contaminación visual y los niveles de la misma en el sector. Debido a la inexistencia de patrones cuantitativos para la evaluación de la gravedad de la contaminación visual y los efectos que esta tiene en la población, estas valoraciones necesitan la experiencia y juicio de profesionales cualificados para que puedan ser analizados. 3. Resultados Los resultados de la aplicación del Indicador 1 “Porcentaje de rótulos por área” fue que en una longitud de 800 mts. Compuesta por las dos aceras que constituyen el área del estudio se observó que existen 269 rótulos, lo que refleja un uso del 34% de la totalidad del tramo del estudio (Tabla 1). Los resultados de la aplicación del Indicador 2 “Porcentaje de rótulos cuya área no cumple la norma” fue que en la totalidad de la longitud de la investigación contabilizando la cantidad de rotulación cuya área no cumple la norma en las dos calles que lo conforman, de una totalidad de 269 rótulos fijos presentes, 154 rótulos fijos tienen el área fuera de la Ordenanza 0330; lo que significa que existe un total de 57% de Publicidad Exterior Fija en el lugar con un área mayor a 3mts2 que es lo que establece la normativa lo que significa que más de la mitad de la rotulación presente tiene un área mayor por lo que la contaminación visual y los efectos que esta tienen son mayores en este tramo (Tabla 2). Enfoque UTE, Sep.2015, pp. 115 - 132 125 Tabla 1. Indicador 1 - Porcentaje de rótulos por área INDICADOR 1 – RESULTADOS TOTALES NÚMERO DE TRAMO TOTAL DE RÓTULOS PORCENTAJE TRAMO 1 64 64% TRAMO 2 35 35% TRAMO 3 33 33% TRAMO 4 34 34% TRAMO 5 34 34% TRAMO 6 36 36% TRAMO 7 11 11% TRAMO 8 22 22% TOTAL 269 34% Tabla 2. Indicador 2 - Porcentaje de rótulos cuya área no cumple la norma INDICADOR 2 – RESULTADOS TOTALES NÚMERO DE TRAMO TOTAL DE RÓTULOS ÁREA NORMATIVA PORCENTAJE DE 3m2 NO Ordenanza 0330; CUMPLIMIENTO Anexo Único 2.1.1 SI NO 27 37 58% TRAMO 1 64 TRAMO 2 35 20 15 43% TRAMO 3 33 15 18 55% TRAMO 4 34 14 20 59% TRAMO 5 34 16 18 53% TRAMO 6 36 17 19 53% TRAMO 7 11 0 11 100% TRAMO 8 22 6 16 73% TOTAL 269 115 154 57% Los resultados de la aplicación del Indicador 3 “Porcentaje de rótulos cuya distancia con la que se encuentran montados sobre la fachada no cumple la norma” fue que en la totalidad de la longitud de la investigación calculando la cantidad de rotulación cuya distancia con la que se encuentran montados sobre la fachada no cumple la norma en las dos calles que lo conforman, de una totalidad de 269 rótulos fijos presentes, 144 rótulos fijos se encuentran montados sobre la fachada a más de 20cm siendo un 54% de la totalidad lo que significa que existe mayor nivel de contaminación visual y efectos en la población (Tabla 3). Los resultados de la aplicación del Indicador 4 “Porcentaje de locales comerciales con más de un elemento publicitario” fue que en la totalidad de la longitud de la investigación contabilizando el número de locales comerciales en las dos calles que lo conforman que poseen más de un Enfoque UTE, Sep.2015, pp. 115 - 132 126 elemento publicitario por lo que no cumplen la norma, de una totalidad de 181 locales comerciales, 94 locales cuentan con más de una Publicidad Exterior Fija por lo que se encuentran fuera de la normativa; lo que significa un 52% de la totalidad de locales comerciales con más de un elemento publicitario lo que significa que existe mayor nivel de contaminación visual y efectos en la población al existir una proliferación de publicidad (Tabla 4). Tabla 3. Indicador 3 - Porcentaje de rótulos cuya distancia con la que se encuentran montados sobre la fachada no cumple la norma INDICADOR 3 – RESULTADOS TOTALES SOBRE FACHADA NORMATIVA PORCENTAJE max. 20cm NÚMERO TOTAL DE DE NO Ordenanza 0330; DE FICHA RÓTULOS CUMPLIMIENTO Anexo Único 2.1.1 SI NO TRAMO 1 64 31 33 52% TRAMO 2 35 20 15 43% TRAMO 3 33 14 19 58% TRAMO 4 34 15 19 56% TRAMO 5 34 13 21 62% TRAMO 6 36 21 15 42% TRAMO 7 11 3 8 73% TRAMO 8 22 8 14 64% TOTAL 269 125 144 54% Tabla 4. Indicador 4 - Porcentaje de locales comerciales con más de un elemento publicitario INDICADOR 4 – RESULTADOS TOTALES NÚMERO DE CASAS CON MÁS NÚMERO DE DE UNA PORCENTAJE DE NÚMERO LOCALES PUBLICIDAD NO DE FICHA COMERCIALES Ordenanza 0330; CUMPLIMIENTO TOTALES Anexo Único 2.1.1 SI NO TRAMO 1 35 13 22 63% TRAMO 2 TRAMO 3 TRAMO 4 TRAMO 5 TRAMO 6 TRAMO 7 TRAMO 8 TOTAL 20 21 24 28 22 11 20 181 11 10 11 13 11 9 9 87 9 11 13 15 11 2 11 94 45% 52% 54% 54% 50% 18% 55% 52% Los resultados de la aplicación del Indicador 5 “Presencia de contaminación visual” de la muestra total de la aplicación de las encuestas (72 encuestados), 60 personas encuestados dieron como respuesta que en su barrio existe contaminación visual como resultado de un exceso de Enfoque UTE, Sep.2015, pp. 115 - 132 127 Publicidad Exterior Fija, lo que representa que el 83% de ellos afirman la presencia de contaminación visual (Tabla 5). Tabla 5. Indicador 5 - Presencia de contaminación visual INDICADOR 5 – RESULTADOS ENCUESTA RESPUESTAS DE PERSONAS ENCUESTADAS SI NO NÚMERO TOTAL DE PERSONAS ENCUESTADAS 72 60 PORCENTAJE DE PRESENCIA DE cVISUAL 83% 12 Otro de los resultados fue analizar los puntos críticos con respecto a contaminación visual en el sitio de la investigación; para este análisis se tomaron en consideración los resultados de los Indicadores 2, 3 y 4 ya que el objetivo fue analizar y categorizar los tramos (8 tramos) del sitio según el nivel de contaminación visual existente. Una vez analizados los tramos con los tres indicadores, es necesario realizar un cálculo para poder categorizar dependiendo del nivel de contaminación visual existente, siendo el cálculo el siguiente: 𝐶á𝑙𝑐𝑢𝑙𝑜 𝑑𝑒𝑙 𝑁𝑖𝑣𝑒𝑙 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙 𝑑𝑒𝑙 𝑇𝑟𝑎𝑚𝑜 𝑥 = (%𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 2 + %𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 3 + %𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 4) 3 Teniendo así en el caso del Tramo 1 y observando la Tabla 1: 𝐶á𝑙𝑐𝑢𝑙𝑜 𝑑𝑒𝑙 𝑁𝑖𝑣𝑒𝑙 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙 𝑑𝑒𝑙 𝑇𝑟𝑎𝑚𝑜 1 = (58% + 52% + 63%) 3 Una vez aplicada el anterior cálculo, se categorizó de acuerdo a los porcentajes de contaminación visual (descendente) de acuerdo a la Tabla 6. Tabla 6. Categorización del porcentaje de contaminación visual por Tramos TRAMO % 1 TRAMO 7 64 2 TRAMO 8 64 3 TRAMO 1 58 4 TRAMO 4 56 5 TRAMO 5 56 6 TRAMO 3 55 7 TRAMO 6 48 8 TRAMO 2 44 Enfoque UTE, Sep.2015, pp. 115 - 132 128 Para la categorización de los tramos cuyo resultado tuvo los mismos valores, se analizó a profundidad el Indicador 2: Área total de rotulación, ya que si los rótulos tienen mayor área el impacto será mayor. Por lo tanto, los puntos críticos serán principalmente el tramo séptimo y el octavo al tener 64% de contaminación visual, seguidos por los tramos cuarto, quinto y tercero, que tienen más del 50% de contaminación visual existente. Solo los tramos sexto y segundo poseen un nivel de contaminación visual menor al 50%, por lo que no fueron considerados puntos críticos en comparación a los otros tramos. Para realizar una estimación de los niveles de contaminación visual en el sitio de investigación es necesario tener una escala. Esta escala se la realizó en base a la experiencia de esta investigación, así como de los datos emitidos una vez aplicados los indicadores. Por lo tanto, la escala que se observa en la Tabla 7, para la categorización de los niveles de contaminación visual: Tabla 7. Escala de los Niveles de Contaminación visual ESCALA DE LOS NIVELES DE CONTAMINACIÓN VISUAL 100% - 75% Alto 75% - 50% Medio- Alto 50% - 25% Medio 25% - 1% Bajo Una vez diseñada la escala de contaminación visual se prosigue con la estimación de los niveles de contaminación visual en cada uno de los tramos de acuerdo con los resultados de los Indicadores 2, 3 y 4, por consiguiente obteniéndose los valores de la Tabla 8. Tabla 8. Estimación de niveles de contaminación visual en el sitio de estudio 1 TRAMO 7 64 2 TRAMO 8 64 3 TRAMO 1 58 4 TRAMO 4 56 5 TRAMO 5 56 6 TRAMO 3 55 7 TRAMO 6 48 8 TRAMO 2 44 NIVEL MEDIO - ALTO % MEDIO TRAMO Enfoque UTE, Sep.2015, pp. 115 - 132 129 Presencia de contaminación visual realizando una estimación de los niveles de este tipo de contaminación, se observa que todo el sector tiene nivel medio-alto de contaminación visual, inclusive los tramos sexto y segundo, que tiene un nivel de contaminación medio (Figura 3). Los efectos que tiene la contaminación visual en la población dependen de la perspectiva de ellos ya que se encuentran expuestos a este tipo de contaminación, por lo tanto, los resultados del cuestionario fueron claves. Figura 3. División de los tramos para aplicar Fichas de Observación (Google Earth, 2014) Enfoque UTE, Sep.2015, pp. 115 - 132 130 La opinión de las personas acerca de la contaminación visual como producto de la publicidad, se empezó a analizar los efectos que a su opinión generan este tipo de contaminación, teniendo así los resultados de la Tabla 9. Tabla 9. Efectos de la contaminación visual NO GRAVES DEFINITIVAMENTE GRAVES 9. EFECTOS DE CONTAMINACIÓN VISUAL NÚMERO ESTRÉS 67 DOLOR DE CABEZA 68 CANSANCIO VISUAL 70 AMENAZA 21 PERTURBACIÓN 30 OFENSA 24 INCOMODIDAD 59 AGRESIÓN 35 DISTRACCIONES PELIGROSAS 64 PÉRDIDA EN LOS VALORES ESCÉNICOS 58 POTENCIALMENTE AUMENTO EN LA ACTIVIDAD GRAVES 60 COMERCIAL OBSTRUCCIÓN VISUAL (FACHADAS, ESPACIOS PÚBLICOS, VÍAS DE 68 CIRCULACIÓN PEATONAL) BLOQUEO O INTERRUPCIÓN VISUAL 59 DEL PAISAJE NATURAL OTROS 0 NINGUNO DE LOS ANTERIORES 0 TOTAL ENCUESTADOS PORCENTAJE 93% 94% 97% 29% 42% 33% 82% 49% 89% 81% 83% 94% 82% 0% 0% 72 Los efectos que sufre la población, son tanto definitivamente graves, potencialmente graves y no graves, siendo el efecto que menor porcentaje tuvo “amenaza” con un 29% del total de los encuestados, y los efectos que tuvieron mayor incidencia fueron: Cansancio visual 97%, dolor de cabeza 94%, obstrucción visual 94%, estrés 93%, distracciones peligrosas 89%, incomodidad 82%, bloqueo o interrupción del paisaje natural 82% y pérdida en los valores escénicos 81%. 3. Discusión De acuerdo Méndez Velandia (2013), en el análisis de contaminación visual en Venezuela, se coincide con la existencia de esta problemática, especialmente por la presencia de publicidad tanto rótulos como vallas, denotando los efectos en la población. Aunque la contaminación visual no es un tipo de contaminación convencional, tal como la contaminación al agua o al suelo, la construcción de indicadores que permitan medir el cumplimiento de las normas (que son creadas para el bienestar de los ciudadanos, y evitar efectos tanto en el ambiente como en los seres humanos), son de gran importancia para el análisis de sus efectos en la población y su derecho a vivir en un ambiente sano. Enfoque UTE, Sep.2015, pp. 115 - 132 131 Al ser una fuente de contaminación visual el mal uso de publicidad exterior fija, el control por parte de las autoridades, en los sectores cuyos niveles estimados de este tipo de contaminación son considerados como críticos, debe tener un monitoreo constante, para de esta manera reducir los sus efectos mediante el cumplimiento de la normativa; así como también para una reducción de contaminación visual, especialmente en sectores donde ha aumentado la actividad comercial. 4. Conclusiones Se concluyó que la población tiene varias nociones sobre la definición de la misma que son tanto afectaciones a la salud como a su entorno, de igual manera un exceso de elementos ajenos al ambiente, lo cual se constata que se relaciones de gran manera con las definiciones expuestas por varios autores. Como aporte de esta investigación se propone un concepto que englobe todas las definiciones anteriormente descritas de contaminación visual, siendo el siguiente: contaminación visual aquel tipo de contaminación que es de carácter urbano que es ocasionada por el uso excesivo de varios elementos ajenos al ambiente que alteran la estética y la imagen del paisaje ya sea natural o artificial, que afecta tanto a las condiciones, calidad de vida y las funciones vitales de los seres vivos. Posterior a tener un concepto claro de contaminación visual, y a las investigaciones realizadas alrededor de la misma, se analizó la forma en que la contaminación visual puede ser medida, por lo que se creó cinco indicadores y los mismos puedan arrojar información cuantitativa de esta contaminación. Estos indicadores fueron aplicados en las dos aceras en cada tramo del área del estudio y de igual manera en todo el sector (Esquina de la Calle Rigoberto Heredia hasta la Calle Capitán Ramón Chiriboga), para tener referencias globales del nivel de contaminación existente. Se concluye de los resultados de la aplicación de los indicadores y de realizar una estimación de los niveles de contaminación visual presente y conocer los puntos críticos existentes en el área de estudio se prosiguió a realizar estimaciones de los niveles de contaminación visual existente, donde se basó en una escala realizada a base de la experiencia de esta investigación, siendo los niveles del sector “Medio-Alto” seis de los tramos totales (el 75% del sector total) y dos como “Medios” (el 25% del sector total). Para finalizar, se analizó los efectos que tiene la contaminación visual en la población los mismos que se basaron en la percepción de la población frente a esta problemática. Los efectos que mayor incidencia que los pobladores opinaron que sufren a causa de este tipo de contaminación fueron: cansancio visual, dolor de cabeza, obstrucción visual, estrés, distracciones peligrosas, incomodidad, bloqueo del paisaje natural y pérdida de los valores escénicos. Enfoque UTE, Sep.2015, pp. 115 - 132 132 Bibliografía Constitución de la República (2008) Couto, M. M. (2007). Contaminación visual del paisaje, cartelería publicitaria en rutas. Metodología de la Investigación. Costa Rica: Maestría en Paisajismo-Instituto Universitario Bios. Gallardo Pacheco, R. F. (2011). Propuesta de regulación del diseño publicitario de rotulación en el Centro Histórico de la ciudad de Latacunga para combatir la contaminación visual existente. Latacunga, Ecuador. Jérez Paredes, M. T. (2007). Eficacia de las medidas legales existentes para evitar la contaminación visual en la ciudad de Guatemala. Guatemala: USAC. Ley Orgánica de Transporte Terrestre, Tránsito y Seguridad Vial (2008) Méndez Velandia, C. A. (2013). La contaminación visual de espacios públicos en Venezuela., El Caribe, España y Portugal: Red de Revistas Científicas de América Latina, pp. 45-60. Municipio del Distrito Metropolitano de Quito (2010) Ordenanza Metropolitana 0330: De la Licencia Metropolitana Urbanística de Publicidad Exterior – LMU (41). Quito: MDMQ. Municipio del Distrito Metropolitano de Quito (2012) Ordenanza Metropolitana 0310: “La Ordenanza Metropolitana Reformatoria de la Ordenanza Metropolitana No. 0330, sancionada el 23 de noviembre de 2010, que establece el régimen administrativo de la Licencia Metropolitana Urbanística de Publicidad Exterior LMU – (41). Quito: MDMQ. Municipio del Distrito Metropolitano de Quito (2003): Ordenanza Sustitutiva a la Ordenanza de Zonificación No. 008 que contiene el plan de uso y ocupación del suelo (PUOS), recuperado en agosto del 2014 de: http://www7.quito.gob.ec/mdmq_ordenanzas/Ordenanzas/ORDENANZAS%20A%C3%91OS %20ANTERIORES/ORDZ-011%20-%20PUOS%20-%20SUSTITUYE%20ORMZ-008.pdf Reglamento de la Ley de Transporte, Tránsito y Seguridad Vial (2012). Enfoque UTE, Sep.2015, pp. 115 - 132