Descargar todo - Ciencias de la Ingeniería UTE

Transcripción

Descargar todo - Ciencias de la Ingeniería UTE
Enfoque UTE es una revista de carácter técnico-científico, que publica artículos sobre trabajos de
investigación científica y tecnológica, revisión del estado del arte en un área específica del conocimiento y
trabajos de vinculación con la comunidad en los cuales se realizaron actividades de investigación científica.
La revista abarca las áreas temáticas de las ingenierías Ambiental, de Alimentos, Automotriz, Industrial,
Informática, Mecatrónica, y de Petróleos.
Enfoque UTE está dirigida a la comunidad de docentes, investigadores, y estudiantes universitarios, de
pregrado y posgrado en general.
Enfoque UTE
Volumen 6 – Número 3
Septiembre – 2015
e-ISSN: 1390-6542 (electrónico) / p-ISSN: 1390-9363 (impreso)
Copyright © 2010 - 2015
Facultad de Ciencias de la Ingeniería
Universidad Tecnológica Equinoccial
http://ingenieria.ute.edu.ec/enfoqueute/
Teléfono: +593-(2)-2990-800 ext.2232
Dirección: Av. Mariscal Sucre (Occidental) y Mariana de Jesús, s/n.
Quito-Ecuador
Comité Editorial
Director
Jorge Viteri Moya, Universidad Tecnológica Equinoccial, Ecuador
Coordinador Comité Editorial
Diego Ordóñez Camacho, Universidad Tecnológica Equinoccial, Ecuador
Comité Editorial
Juan Bravo Vásquez, Universidad Tecnológica Equinoccial, Ecuador
Analía Concellón, Universidad Nacional de La Plata, Argentina
Albert Ibarz, Universidad de Lleida, España
Alberto Medina León, Universidad de Matanzas, Cuba
Carlos Monsalve Arteaga, Escuela Politécnica del Litoral, Ecuador
María Gabriela Pérez, Escuela Politécnica Nacional, Ecuador
Jordi Saldo Periago, Universidad Autónoma de Barcelona, España
Neus Sanjuan, Universidad Politécnica de Valencia, España
Gabriela Vernaza Leoro, Universidad San Francisco de Quito, Ecuador
Fabián Villavicencio Abril, Universidad de las Fuerzas Armadas, Ecuador
Índices / Catálogos / Bases de datos
DOAJ (Directory of Open Access Jou rnals)
https://doaj.org/toc/1390-6542
OAJI (Open Academic Journals Index)
http://oaji.net/journal-detail.html?number=1783
REDIB (Red Iberoamericana de Innovación y Conocimiento Científico)
https://www.redib.org/recursos/Record/oai_revista1886-enfoque-ute
Catálogo Latindex
http://www.latindex.unam.mx/buscador/ficRev.html?folio=22038
Universia
http://biblioteca.universia.net/html_bura/ficha/params/title/enfoque-ute/id/58440243.html
Sherpa / Romeo
http://www.sherpa.ac.uk/romeo/search.php?issn=1390-6542
GIF (Global Impact Factor)
http://globalimpactfactor.com/enfoque-ute/
CiteFactor
http://www.citefactor.org/journal/index/10856
OALib
http://mailer.oalib.net/journal/5934
WorldCat
http://www.worldcat.org/title/enfoque-ute-revista-cientifica/oclc/856580285
Electronic Journals Library
https://opac.giga-hamburg.de/ezb/detail.phtml?bibid=GIGA&lang=en&jour_id=205084
Academic Journals Database
http://journaldatabase.info/journal/issn1390-6542
Scientific Indexing Services
http://www.sindexs.org/JournalList.aspx?ID=1491
ResearchBib – Academic Resource Index
http://journalseeker.researchbib.com/view/issn/1390-6542
DRJI (Directory of Research Journals Indexing)
http://drji.org/JournalProfile.aspx?jid=1390-6542
Journal TOCs
http://www.journaltocs.ac.uk/index.php?action=browse&subAction=pub&publisherID=2651&journ
alID=28767
Google Scholar
http://scholar.google.com/scholar?q=Enfoque+UTE
Contenido
Integración de herramientas para el control de gestión. Análisis de un caso de estudio ............... pp. 1 - 19
Raúl Comas Rodríguez, Dianelys Nogueira Rivera, Félix Romero Bartutis, Marisdany Lumpuy Rodríguez
Sistema automatizado para la predicción de flujo de carga en subestaciones eléctricas mediante redes
neuronales artificiales .............................................................................................................. pp. 20 - 35
Arlys Michel Lastre Aleaga, Erik Fernando Méndez Garcés, Alexis Cordovés García
Windows Server 2012 vulnerabilities and security..................................................................... pp. 36 - 51
Gabriel R. López, Danny S. Guamán, Julio C. Caiza
Aplicación de quitosano como biocoagulante en aguas residuales contaminadas con hidrocarburos...….
................................................................................................................................................ pp. 52 - 64
Juan M. Álava
Dosificación mínima del reactivo Fenton para la remediación de agua contaminada con colorantes………
................................................................................................................................................ pp. 65 - 80
Gina Terán, Paola Posligua, Carlos Banchón
Diseño de un incinerador de lecho fluidizado para procesar desechos sólidos orgánicos ............ pp. 81 - 95
Salvatore La Verde Spano, Leonardo Taylhardat
Composición y diversidad de especies arbóreas en transectos de localidades del bosque siempreverde de
tierras bajas del Ecuador ........................................................................................................ pp. 96 - 105
Jorge Caranqui A.
Real-Time embedded control system for a portable meteorological station ........................... pp. 106 - 114
Marcelo Moya , Gonzalo Guerrón , Andrés Montero
Indicadores de contaminación visual y sus efectos en la población ........................................ pp. 115 - 132
Valeria Fuentes Correa, Anita Argüello Mejía
Prefacio
El Comité Editorial de Enfoque UTE se complace en dar la bienvenida entre sus miembros a los doctores:
Carlos Monsalve Arteaga, de la Escuela Politécnica del Litoral, Ecuador; María Gabriela Pérez, de la Escuela
Politécnica Nacional, Ecuador; y Jordi Saldo Periago, de la Universidad Autónoma de Barcelona, España.
Confiamos en que con su valioso aporte superaremos nuestros actuales estándares de calidad y
brindaremos un mejor aporte a la comunidad científica.
La presente edición de nuestra revista mantiene su compromiso con la investigación tecnológica y de
ingeniería, presentando 9 artículos cuyas variadas temáticas interesarán a un amplio rango de nuestros
lectores.
Iniciamos con el diseño y la implementación de un procedimiento para la mejora de la gestión empresarial.
Luego se propone un sistema de predicción de flujo de carga en estaciones eléctricas, y a continuación se
analizan las vulnerabilidades de Windows Server 2012. El cuarto artículo presenta el uso del quitosano para
clarificar aguas contaminadas con hidrocarburos, e inmediatamente se analiza el uso de Fenton para
purificar aguas de desecho textil. El siguiente artículo propone un diseño para incineradores de desechos
orgánicos con la tecnología de lecho fluidizado, y enseguida se muestra un estudio de la diversidad de
especies arbóreas en el bosque siempreverde ecuatoriano. En octavo lugar se presenta un sistema de
control para una estación meteorológica portátil, y finalmente se estudia el problema de la contaminación
visual en áreas urbanas.
Este Comité agradece de manera especial a todos los colaboradores de la revista el trabajo profesional y
oportuno realizado.
Comité Editorial
Quito, septiembre 2015.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/06/18
Aceptado (Accepted): 2015/09/14
CC BY-NC-ND 3.0
Integración de herramientas para el control de gestión. Análisis
de un caso de estudio
(Integration of management control tools. Analysis of a case
study)
Raúl Comas Rodríguez1, Dianelys Nogueira Rivera2, Félix Romero Bartutis3,
Marisdany Lumpuy Rodríguez3
Resumen:
El objetivo del artículo es diseñar e implementar un procedimiento que integre herramientas de
control de gestión con enfoque de procesos, que contribuya a mejorar la eficiencia y la eficacia
de la gestión empresarial. Se lleva a cabo un estudio experimental donde se define un
procedimiento, basado en un cuadro de mando integral, que integra la gestión por procesos
desde la planeación estratégica y su evaluación. Como resultados del trabajo se definen los
factores clave de éxito de la empresa asociados a las cuatro perspectivas del cuadro de mando
integral las cuales se enlazan a través de relaciones causa-efecto y se obtiene el mapa
estratégico que permite visualizar y comunicar la estrategia de la empresa. Los indicadores
para medir la actuación de los factores claves de éxito se integran con los procesos y se
evalúan con la asistencia de un software. Con la implementación del procedimiento en una
empresa comercializadora, se integró la definición de los procesos desde la propia planificación
estratégica, se evaluó su alineamiento, y los indicadores de eficiencia y eficacia evaluados
mejoraron su desempeño.
Palabras clave: estrategia, control de gestión, cuadro de mando integral, procesos,
alineamiento estratégico
Abstract:
The objective of this article is to design and to implement a procedure that integrates
management control tools focusing on process, to improve the efficiency and the efficacy. It was
carried out an experimental study where is defined a procedure, based in the Balanced
Scorecard, which integrates the process management into the strategic planning and their
evaluation. As results of this work, we define the key factors of success associated with the four
perspectives of the Balanced Scorecard that are linked through the cause-effect relations
obtaining the strategic map that allows visualizing and communicating the enterprise strategy.
The indicators evaluate the key factor of success, integrating the process with the assistance of
a software. The implementation of the procedure in a commercialization enterprise contributed
to integrate the process definition into the strategic planning. The alignment was evaluated and
the efficiency and efficacy indicators improved the company´s performance.
Keywords: strategy, management control, balanced scorecard, process, strategic alignment
1
Universidad Técnica de Ambato, Ambato – Ecuador ( [email protected] )
Universidad de Matanzas, Matanzas – Cuba ( [email protected] )
3
Universidad de Sancti Spíritus, Sancti Spíritus – Cuba ( {felixr, mlumpuy} @uniss.edu.cu )
2
2
1. Introducción
El sistema económico, político y social del mundo es complejo, y para las organizaciones es un
reto dar respuesta a sus necesidades en tiempos turbulentos (Boada Grau & Gil Ripoll, 2009; Del
Canto, 2011). En la actualidad, las organizaciones, motivadas por los cambios socioeconómicos,
reclaman la incorporación de nuevos métodos que les permitan gestionar esfuerzos, recursos,
capacidades y adecuarse a las exigencias del entorno para ganar eficiencia y eficacia en sus
procesos (Paladino & Williams, 2008; Shpilberg, Berez, Puryear, & Shah, 2007).
La dirección estratégica es la forma más aplicada de gestionar las organizaciones, por su carácter
abarcador, que integra en un solo pensamiento estratégico todos los sistemas. En el momento de
desplegar la estrategia diseñada o gestionar sus procesos, las organizaciones suelen fracasar
porque carecen de un sistema de gestión capaz de integrar y alinear ambos elementos. (Agudelo
Tobón & Escobar Bolívar, 2010; Amo Baraybar, 2010; Borchardt, Alfonso Sellito, & Medeiros
Pereira, 2007; Kaplan & Norton, 2008)
Por tanto, a fin de contribuir en las investigaciones sobre el tema, el propósito de este trabajo es
desarrollar un procedimiento que integre herramientas del control de gestión con enfoque de
procesos, apoyado en un sistema de información que contribuya a evaluar la eficiencia y la
eficacia en el sistema empresarial.
Se plantea como hipótesis de la investigación: el desarrollo de un procedimiento que permita
integrar herramientas de control de gestión con enfoque de procesos contribuye a evaluar la
eficiencia y eficacia en el sistema empresarial.
Para la aplicación del procedimiento se toma como caso de estudio principal una empresa
comercializadora donde la aplicación del procedimiento propuesto demuestra la factibilidad de su
aplicación y sus resultados contribuyen a la mejora de la misma.
2. Metodología
Para la aplicación del procedimiento que integra herramientas de control de gestión con un
enfoque de procesos se deben cumplir previamente con los siguientes requisitos:
1. Apreciar en la organización la necesidad del cambio y el compromiso con la aplicación de
los resultados.
2. Que exista la formación del personal implicado en las transformaciones culturales a
desarrollar.
3. La dirección estratégica como filosofía asumida por la alta dirección.
4. Un clima organizacional que contribuya al trabajo en equipo, un ambiente de aprendizaje
permanente y acceso a la información.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
3
PROCEDIMIENTO GENERAL PARA EL CONTROL DE GESTIÓN
ETAPA I: DISEÑO O REDISEÑO DE LA ESTRATEGIA
INICIO
1.1 Diagnóstico estratégico
1.2 Fijar el rumbo estratégico
No
1.3 Definir ARC, objetivos
estratégicos y criterios de
medidas
1.4 Definición de los procesos
1.5 Verificar alineamiento estratégico entre los procesos
y la estrategia
¿Responde al
alineamiento?
Si
ETAPA 3: IMPLANTACIÓN DEL
SISTEMA DE CONTROL
ETAPA 2: DESPLIEGUE
DEL SISTEMA DE
CONTROL
1.6 Definir factores claves del éxito
1.7 Definición de las perspectivas
1.8 Confección del mapa estratégico
2.1 Selección de los indicadores
2.2 Confección del manual de indicadores
3.1 Proponer el sistema de información
3.2 Implantación del sistema de
información
3.3 Comunicación
y capacitación
3.4 Análisis de las desviaciones y acciones
preventivas/correctivas
Fin
Figura 1. Procedimiento para el control de gestión.
En la Figura 1 se muestra el procedimiento propuesto que consta de tres etapas que incluyen: el
diagnóstico organizacional, la definición o redefinición de la estrategia empresarial y la definición
de los procesos, el despliegue del cuadro de mando integral (CMI), y su implementación y control.
Etapa I. Diseño o rediseño de la estrategia
Como primer paso para la definición de cualquier estrategia de negocio es importante y necesario
un diagnóstico estratégico de la organización. Para la realización del diagnóstico se obtiene el
compromiso real de la dirección porque todo proyecto de esta envergadura, sin un verdadero
liderazgo de los directivos y su apoyo, resulta infructuoso. Se conforma un equipo de trabajo para
ampliar la base de deliberaciones y consenso, compuesto
entre seis y doce personas,
encargados de la definición del diagnóstico. Para obtener los resultados del diagnóstico
estratégico se propone un análisis DAFO.
A partir de los resultados de este diagnóstico, se fija el rumbo estratégico de la organización como
punto de partida de la definición de la estrategia. Es necesario fijar el rumbo estratégico de la
organización, con todas sus variables de salida: misión, visión, valores, estrategias, objetivos y
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
4
Figura 2. Procedimiento para la
definición de los procesos.
empresariales.
políticas. Las áreas de resultados claves (ARC) son simplemente áreas o categorías esenciales
para el rendimiento efectivo en la institución o empresa. Para cada ARC se deben definir los
objetivos estratégicos que no son más que las declaraciones de las aspiraciones a alcanzar en el
período determinado. Cada objetivo estratégico debe contar con sus criterios de medidas para
evaluar su cumplimiento.
Para determinar los procesos se implementa el procedimiento que se muestra en la Figura 2. Al
aplicar el procedimiento se obtiene:

El mapa que integra los procesos de la empresa, clasificados en: estratégicos, operativos y de
apoyo y su interrelación.

Un diagrama de cada proceso que muestra una explicación detallada de cada una de las
actividades del proceso y quién lo hace.

Una ficha para cada proceso, que representa un soporte informativo de las características
relevantes para el control de todas las actividades: responsable, objetivos, descripción,
recursos necesarios, documentación, procesos con los cuales se relaciona, principales riesgos
e indicadores para evaluar su eficacia.
Después de definidas las categorías básicas de la estrategia e identificados los procesos de la
organización es necesario contrastarlas en busca de evaluar el alineamiento estratégico entre los
procesos y los objetivos estratégicos. Una de las mayores debilidades en las estrategias
actualmente es la falta de alineamiento entre las propuestas definidas a largo plazo (establecidas
a través de los objetivos estratégicos) y su accionar, en el corto plazo, en los procesos que se
ejecutan en la organización. Para evaluar la relación se realizan los siguientes pasos:
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
5
1. Crear matriz de impacto entre los procesos y los objetivos estratégicos. Se evalúa el impacto
de los procesos en los objetivos estratégicos con la evaluación de 1 (bajo) a 10 (alto) puntos.
2. Calcular el peso relativo de los objetivos estratégicos y los procesos. Para el cálculo de los
pesos relativos se puede utilizar el método de las jerarquías analíticas (AHP)4.
3. Calcular el índice de alineamiento de los objetivos estratégicos a través de la Ecuación 1.
n
Iao   (OEk * ok )
(1)
k 1
Dónde:
Iao: índice de alineamiento de los objetivos estratégicos
OEk : media de los impactos de los procesos en el objetivo estratégico k.
ok : peso relativo del objetivo estratégico k.
n: cantidad de objetivos estratégicos.
4. Calcular el índice de alineamiento de los procesos a través de la Ecuación 2.
m
Ipr   ( PRk * pk )
(2)
k 1
Dónde:
Ipr: Índice de alineamiento de los procesos.
PRk : media de los impactos del proceso k en los objetivos estratégicos.
pk :peso relativo del proceso k
m: cantidad de procesos
5. Evaluar la posición de los objetivos estratégicos y los procesos en la matriz de impacto
procesos/objetivos estratégicos. (Figura 3). En caso de ubicarse en el cuadrante superior
derecho existe alineamiento entre los objetivos estratégicos y los
procesos. En caso de
ubicarse en el cuadrante superior izquierdo los objetivos estratégicos de mayor peso no son
impactado por los procesos. En caso del cuadrante inferior izquierdo indica que los procesos
de mayor peso no impactan en los objetivos estratégicos. En el cuadrante inferior izquierdo es
necesario el rediseño de la estrategia y los procesos porque no hay alineamiento.
4
El método de las jerarquías analíticas, propuesto por el matemático Thomas L. Saaty en 1980, es un
método para abordar problemas que tienen un número finito de soluciones; formula el problema de decisión
permitiendo organizar la información respecto al problema de decisión, y que dicha información sea
descompuesta y analizada en su diferentes partes, para elegir la mejor alternativa o solución.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
6
Figura 3: Matriz de impacto procesos/objetivos
estratégicos.
Para finalizar la fase se definen los factores claves del éxito (FCE) que se identifican para
concentrar los esfuerzos y recursos de la organización en ellos. Los FCE deben tener una
correspondencia directa con los objetivos estratégicos definidos (Comas Rodríguez, 2013).
Etapa II. Despliegue del sistema de control
Definido el rumbo estratégico, se despliega el CMI como herramienta de control de gestión,
mediante la cual se puede: medir y evaluar la gestión empresarial; tener una visión global de la
organización, y apoyar el proceso de toma de decisiones, se conjugan los indicadores financieros
y no financieros en diferentes perspectivas a través de las cuales es posible analizar la empresa
en su conjunto.
Kaplan y Norton propusieron en la confección del CMI la utilización de cuatro perspectivas:
financiera, clientes, procesos internos, y aprendizaje y crecimiento. Se puede comenzar a trabajar
en el montaje de las perspectivas desde estas cuatro propuestas pero, a partir de las
interioridades de cada empresa, se puede definir nuevas acordes a sus características.
Un mapa estratégico es una descripción integrada y lógica de la forma en que se llevará a cabo
una estrategia, indica las relaciones causa-efecto relativa a los recursos y capacidades de la
empresa que deben llevar a los resultados estratégicos deseados.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
7
Definir el mapa estratégico de una organización es una actividad compleja. El trabajo de
establecer las relaciones causa efecto lleva tiempo y dedicación del equipo de trabajo
seleccionado. En la literatura consultada (más de 700 artículos descargados de Internet, y otras
referencias) no se dispone de un procedimiento o metodología que guíe como realizarlo. Se
propone el procedimiento específico que se muestra en la Figura 4 para la elaboración de un
mapa estratégico.
Figura 4. Procedimiento específico para
confeccionar el mapa estratégico.
Para comenzar a confeccionar el mapa estratégico se asocian los objetivos estratégicos (OE) o
factores claves de éxito a las perspectivas seleccionadas. Se crea una matriz donde por las filas y
las columnas se insertan los OE o FCE ordenados por las cuatro perspectivas y se impacta cada
uno con el resto en la búsqueda de las relaciones causales que existen entre ellos.
En un lienzo se dibujan los OE o FCE y se relacionan a partir de las relaciones prestablecidas en
la matriz. Al dibujarse la primera variante del mapa estratégico es posible visualizar aquellos
nexos que resultan secundarios y se detectan los posibles errores existentes en la
operacionalización de la estrategia definida. Después de depurar el mapa inicial se mejora la
configuración del gráfico propuesto y queda establecido el mapa estratégico final de la
organización.
El CMI se fundamenta en la filosofía “…si no puedes medirlo, no puedes gestionarlo”. Claramente,
algunas operaciones (beneficios, ventas, etcétera) son más fáciles de medir que otras (habilidades
de los trabajadores, imagen, etcétera); sin embargo, no por ello debe ser excluidas del CMI, en
todo caso puede quedar como “pendiente a desarrollar”, pues casi siempre existe un indicador,
aunque no sea perfecto. En la presente investigación se propone la evaluación de los indicadores
en el CMI en cuatro valores excelente (azul en el CMI), bien (verde), regular (amarillo) y mal (rojo)
Un excelente CMI deberá poseer una variación adecuada de resultados (indicadores efectos) y de
inductores de la actuación (indicadores causa) que se hayan adaptado a indicadores de la
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
8
estrategia de la unidad de negocio. Los indicadores del resultado sin los inductores de la
actuación no comunican la forma en que conseguirán los resultados, ni proporcionan una
indicación temprana de sí la estrategia se propone en práctica con éxito.
Como resultado de esta etapa se obtienen los indicadores necesarios para medir la actuación de
los factores clave en cada una de las cuatro perspectivas, con el fin de determinar el grado de
consecución de los objetivos estratégicos.
Por último, se confecciona un manual que sirva de consulta y herramienta de trabajo para los
directivos y especialistas, el cual debe incluir la información de los indicadores a tener en cuenta:
perspectiva, FCE, vínculo con procesos, vínculo con objetivos estratégicos, código del indicador,
objetivo del indicador, forma de cálculo, unidad de medida, periodicidad, niveles de referencia,
metas concebidas, mejoramiento histórico del indicador (para establecer tendencias), mejor valor
logrado para dicho indicador, fecha de entrada al CMI, fecha de salida del CMI y responsable
Etapa III. Implementación y control
Después de definir el CMI, se trabaja en su implementación, la cual parte de la confección del
sistema de información que sirva a la organización para el cumplimiento de los objetivos
propuestos y el análisis de las desviaciones y acciones correctivas necesarias en su desempeño.
Un sistema de información para ejecutivos5 permite presentar la información en forma rápida y
sencilla y, usualmente, posee las características siguientes:

Tienen los indicadores relevantes.

Admiten la condensación de la información y su investigación.

Hay señales de alarma (semáforos) que señalan los desvíos importantes y permiten el control
por excepción.

Posibilitan la visualización gráfica.

Presentan información interna y externa.
La conformación de los cuadros de mando de los directivos se debe conformar en cascada. Cada
responsable de un indicador actualiza sus datos y con ellos se confecciona el cuadro de mando de
cada unidad estratégica de negocios y cada gerencia funcional. De todos los indicadores
seleccionados en la empresa, se escogen aquellos que son de interés de la alta dirección y con
ellos se conforma su cuadro de mando.
El CMI, aunque, normalmente, va dirigido a la dirección de la unidad de negocios donde se
implemente, debe ser compartido con todos los trabajadores de la organización. En consecuencia,
5
Denominado en la literatura de habla inglesa Executive Information Systems (EIS).
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
9
su elaboración implica un esfuerzo de comunicación explícita e implícita adicional al normal, pues
todas las etapas representan un proceso educativo muy valioso para todos los niveles.
La función de control consiste en la medición del progreso y su comparación con el resultado
esperado para que, en caso de que difieran, se tomen las acciones necesarias. Si existieran
desviaciones con respecto a las metas establecidas para algún indicador, la dirección debe
reunirse con los responsables de los indicadores y tomar las acciones pertinentes para el
cumplimiento de los valores fijados.
3. Resultados
La implementación del procedimiento se realizó en una organización comercializadora donde se
aprovechó el ejercicio de planeación de la empresa para la actualización de la estrategia.
Para el diagnóstico situacional de la organización se creó un equipo de trabajo, encabezado por
los directivos de la empresa y en el cual participaron además funcionarios y trabajadores que
representan las diferentes áreas de la organización.El objeto social de la organización es amplio y
abarca diversas actividades del comercio y los servicios:

Venta mayorista y minorista de mercancías y combustible

Venta minorista de servicios gastronómicos

Prestación de servicios de fotografía y recreación

Prestación de servicios técnicos en actividades de tecnología, computación y clima.

Prestación de servicios de instalación y mantenimiento a grupos electrógenos.

Prestación de servicios de intermediación financiera.
La empresa cuenta con nueve Unidades Estratégicas de Negocio y con ochenta y tres puntos
venta con representación en todos los municipios de la provincia, y laboran 719 trabajadores. Para
el análisis del entorno y la organización se aplicó una encuesta a una muestra aleatoria del
personal para la selección de las oportunidades, amenazas, fortalezas y debilidades; mediante
trabajo en equipo se reduce el listado y se obtuvieron los resultados siguientes:
Oportunidades:
1. Incremento de la demanda por la diversificación de formas de gestión de la propiedad.
2. Incremento de las remesas familiares desde el exterior.
3. Ventas en la red minorista a través de tarjetas de créditos con descuento a colaboradores.
4. Cambios en la política bancaria dirigidos al otorgamiento de créditos a la población.
5. Incremento del marco importador que permite diversificar la oferta
Amenazas:
1. La crisis económica mundial.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
10
2. Incremento de la competencia del mercado.
3. Inestabilidad en los suministros de los proveedores nacionales.
4. Carencia de fuerza constructora en la provincia.
5. Regulaciones que limitan la autonomía de la empresa.
Fortalezas:
1. Capacidad financiera y solvencia económica
2. Desarrollo tecnológico y de infraestructura.
3. Empresa que de forma continua mejora sus procesos y sistemas de gestión.
4. Trabajadores competentes y con experiencia en el trabajo.
5. Credibilidad e imagen.
Debilidades:
1. Insuficiente uso de los sistemas de estimulación que incide en la baja motivación
2. Incumplimiento con los planes de mantenimiento programados.
3. Insuficiencias en el uso de los sistemas de control y exigencia en las unidades.
4. Limitación en el desempeño de las funciones de los administradores.
5. Sistema de gestión ineficaz para asegurar el reaprovisionamiento oportuno de las mercancías
en la red comercial.
Con los datos anteriores se confeccionó la matriz DAFO de la Tabla 1.
Fortalezas
1
2
3
4
5
Debilidades
DAFO
1
2
3
4
5
Total
Tabla 1. Matriz DAFO.
Oportunidades
Amenazas
Total
1 2 3 4 5
1 2 3 4 5
21
3 2 2 2 3
3 3 1 1 1
21
3 3 3 2 1
2 2 2 2 1
21
3 3 3 3 3
1 2 1 1 1
18
3 3 2 2 1
1 3 1 1 1
16
2 2 3 2 1
1 1 1 2 1
60
37
16
3 3 3 1 1
1 1 1 1 1
14
2 2 1 1 1
1 1 1 3 1
17
3 2 3 2 2
1 1 1 1 1
17
2 2 3 2 3
1 1 1 1 1
24
3 3 3 3 3
3 2 2 1 1
`31
57
27 25 26 20 19
15 17 12 14 10
La organización se ubicó en el primer cuadrante, que es característico de las que asumen
estrategias ofensivas con énfasis en la eficacia. El análisis DAFO mostró un mayor porcentaje en
el primer cuadrante (80%) por lo que es posible aprovechar los cambios que se avecinan con la
actualización del modelo económico, con el apoyo de la capacidad financiera y solvencia
económica, el desarrollo tecnológico y de infraestructura, y la mejora continua de los procesos y el
sistema de gestión. No obstante al análisis anterior se pudo evidenciar la necesidad de trabajar la
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
11
estrategia en función de atenuar las debilidades presentes que afectan el desempeño de la
organización.
Con los elementos declarados en la misión y la visión, y las prioridades en el momento actual se
identificaron tres áreas de resultado clave: Gestión económica, Mejora continua y Cumplimiento
de la responsabilidad social. Para cada una de las ARC se definieron los objetivos estratégicos
con sus criterios de medidas los cuales establecen el vínculo de la misión definida con la visión a
alcanzar.
Definida la estrategia se aplicó el procedimiento para la definición de los procesos. En la Figura 5
se muestra el mapa de procesos desplegado. También se definieron los procesos a través de un
diagrama de flujo y sus respectivas fichas.
Figura 5. Mapa de procesos
Para verificar el alineamiento estratégico entre los procesos y los objetivos estratégicos se creó la
matriz de impacto entre ambos elementos; se calcularon: los pesos relativos a través del método
AHP; el índice de alineamiento de los objetivos estratégicos (Tabla 2) y el índice de alineamiento
de los procesos con un valor de 7.7631.
Tabla 2. Cálculo del indicador de alineamiento de los objetivos estratégicos
Objetivos estratégicos
1
2
3
4
5
6
Aumentar de manera sostenida las utilidades
Avanzar en el perfeccionamiento de la gestión
Mantener el AVAL del sistema de gestión de la calidad
Alcanzar un uso más eficiente del Capital Humano
Elevar los resultados en la comercialización
Mejora de la infraestructura, el mantenimiento
constructivo y tecnológico
7
Consolidar el sistema de Control Interno
8
Elevar la disciplina financiera
Índice de alineamiento de los objetivos estratégicos
7.5556
7.4444
7.5556
6.6667
8.0000
Peso
Relativo
0.20911
0.25083
0.16675
0.10729
0.08769
1.5799
1.8673
1.2598
0.7152
0.7014
8.3333
0.05139
0.4282
6.8889
5.6667
0.07129
0.05564
0.4911
0.3153
7.3586
Media
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
12
Para evaluar la posición se creó a matriz de impacto procesos/objetivos estratégicos de la Figura
6. Como resultado de la evaluación se pudo confirmar la existencia de alineamiento entre los
objetivos y los procesos por encontrarse el punto de evaluación en el cuadrante superior derecho.
Figura 6. Matriz de impacto procesos/objetivos
estratégicos.
A partir del criterio expuesto por los especialistas del equipo de trabajo se identificaron doce
factores claves del éxito.
El despliegue del sistema de control comenzó con el montaje de las perspectivas para el CMI.
Para la implementación del CMI se trabajó con las cuatro perspectivas definidas por Kaplan y
Norton: Financiera, Clientes, Procesos Internos, y Aprendizaje y Crecimiento.
Para definir el mapa estratégico los FCE se reagruparon por perspectivas (Tabla 3) y se creó la
matriz de relaciones causa-efecto de los posibles enlaces entre los FCE.
Con los resultados de la matriz de impacto de las relaciones causa efecto se obtuvieron 29
posibles impactos entre los FCE. Se realizó el dibujo inicial de la propuesta del mapa estratégico y
una revisión para eliminar los nexos secundarios de los impactos definidos desde su visualización.
Como resultado final se obtuvo el mapa estratégico de la organización objeto de estudio (Figura
7).
Para el despliegue del CMI se definieron los indicadores estratégicos que evaluan los FCE y que
también tienen su impacto en los objetivos estratégicos y en los procesos.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
13
Tabla 3. FCE asociados a las perspectivas del CMI.
Perspectivas
Factores claves de éxito
Incrementar la rentabilidad
Financiera
Incrementar ingresos
Reducir costos y gastos
Clientes
Procesos
Internos
Elevar la satisfacción de los clientes
Mejorar la calidad del servicio
Mejorar el proceso de compra, almacenaje y distribución
Incrementar la gestión de ventas
Minimizar riesgos
Elevar la productividad de los trabajadores
Aprendizaje y
Crecimiento
Aplicar sistemas de pago por resultados
Mejorar las competencias laborales
Mantener y renovar la infraestructura constructiva y tecnológica
Figura 7. Mapa estratégico
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
14
La Tabla 4 muestra el cuadro de mando de la Dirección General al cierre del primer trimestre, en
el momento se reportaron deficiencias en la evaluación de cuatro indicadores: el nivel de
satisfacción de los pedidos, el índice de ventas de mercancías por metros cuadrados, la
correlación salario medio productividad y el cumplimiento del plan de mantenimientos a equipos
tecnológicos. Otros seis indicadores se encuentran evaluados de regular.
No.
Tabla 4. Cuadro de mando de la Dirección General.
INDICADORES ESTRATEGICOS
UM
PERSPECTIVA FINANCIERA
1
Razón de rentabilidad económica
2
Razón de rentabilidad financiera
3
Tasa de ganancia
%
4
Índice de crecimiento de los ingresos totales
%
5
Índice de gastos totales por peso de ingreso
%
Cierre 31/3/10
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
0.80
0.83
0.63
0.57
18.06
17.73
4.37
8.05
81.94
82.27
Plan
Real
Plan
Real
4.05
3.92
1.00
1.00
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
80.00
37.73
55.08
51.06
0.25
0.28
100.00
100.00
13.00
8.49
20.00
19.19
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
Plan
Real
1.03
1.01
95.0
95.2
2.00
0.64
90.00
100.00
90.00
98.91
0.91
0.83
90.00
75.23
100.00
95.23
PERSPECTIVA CLIENTES
6
Índice de satisfacción del cliente
7
Índice de desempeño de los procesos
PERPECTIVA PROCESOS INTERNOS
8
Nivel de satisfacción de los pedidos
%
9
Rotación de los inventarios de mercancías para la venta
%
10
Índice de pérdidas por faltantes y mermas
%
11
Hechos extraordinarios con participación de empleados
%
12
Índice de ventas de mercancías x metro cuadrado
CUC/m²
13
Índice del servicio de ventas de gastronomía x banqueta
CUC/bq
PERSPECTIVA DE APRENDIZAJE Y CRECIMIENTO
14
Relación salario medio productividad
15
Índice de satisfacción del cliente interno
%
16
Tasa de fluctuación laboral
%
17
Evaluación de las acciones de capacitación
%
18
Evaluación del desempeño
%
19
20
21
Índice del estado de la infraestructura constructiva y de
equipos
Cumplimiento del plan de mantenimiento de equipos
tecnológicos
Cumplimiento del presupuesto total de inversiones
%
%
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
15
Para la corrección de las desviaciones en los indicadores estratégicos se definió un plan de acción
con un grupo de acciones correctivas que contribuyeron a mejorarlos.
Por la dinámica del CMI se determinó dejar de evaluar tres indicadores evaluados de excelente y
con un comportamiento estable entre el segundo y tercer trimestre del 2011: índice de desempeño
de los procesos, hechos extraordinarios con la participación de empleados y la tasa de fluctuación
laboral.
El segundo trimestre del 2011, se incorporó al cuadro de mando el indicador de participación de
productos nacionales en las ventas. El decrecimiento del indicador en el período, aunque sus
cifras no son significativas y se mantuvo evaluado de bien, fue causado principalmente por una
disminución en un 23% de los surtidos de proveedores locales.
Un indicador que durante los dos años y medio de evaluación presentó dificultades es el nivel de
satisfacción de los pedidos (Figura 8). Este indicador con el plan de acción definido y otras
acciones de la gerencia comercial fue posible su incremento en un 21.65% en el período y pasó
de una evaluación de mal a regular. Una de las acciones que más contribuyó a los resultados fue
la realización de gestiones directas por los comerciales en las distribuidoras.
Figura 8 Evaluación del indicador nivel de satisfacción de los pedidos .
El indicador de nivel de satisfacción del cliente interno en los últimos seis meses del estudio
mostró un decrecimiento de más de 6% (Figura 9). Esta situación fue provocada por:

Los locales de trabajo en general carecen de condiciones para prestar servicios sin que
funcionen los aparatos de clima en los horarios pico.

Falta de los insumos necesarios para el aseo de los trabajadores y las unidades

Ausencia de toldo u otra alternativa permite que se produzcan resplandores molestos en los
puestos de trabajo y en algunos casos deteriora la mercancía
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
16

Rotura de luminarias en los locales de trabajo sin posibilidades de reponer
Figura 9. Evaluación del indicador índice de satisfacción del cliente interno.
Esta situación, determinó la necesidad de un plan de acciones correctivas para mejorar la
satisfacción de los trabajadores en sus puestos de trabajo.
De forma general los indicadores estratégicos mejoraron su evaluación y la organización mejoró
su eficiencia y eficacia a través de la implementación de la estrategia trazada. De un total de 25
indicadores iniciales, 12 pasaron a una evaluación de excelente de cinco iniciales (tres de estos
indicadores se dejaron de evaluar en el intervalo de tiempo); en total los evaluados de bien y
excelente finalmente son 20
y disminuyeron en dos los evaluados de mal por lo que sus
resultados son favorables (Figura 10). El análisis del comportamiento de los indicadores de
eficiencia y eficacia para evaluar el desempeño de los FCE que integraron el CMI permiten
concluir que la implementación del procedimiento impacta positivamente en la gestión empresarial
y resultó una herramienta eficaz para mantener la atención sobre la actuación de aquellos, que
afectaba el cumplimiento de los objetivos estratégicos de la empresa.
Figura 10. Análisis de los indicadores evaluados.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
17
Adicionalmente al presente caso de estudio, existen más de 15 aplicaciones que validan la
pertinencia de los procedimientos establecidos desglosada en: tres empresas comercializadoras,
un grupo empresarial de la construcción compuesto por ocho empresas y tres empresas
constructoras, dos empresas de la industria alimentaria, dos empresas de servicio, un grupo
hotelero y una universidad. La aplicación del procedimiento en empresas de tanta diversidad está
dado también por su carácter flexible que le permite adecuarse a diversos entornos.
3. Discusión
En el marco del control de gestión se han realizado un conjunto de investigaciones, desde la
década del 90 del siglo pasado, en diferentes sectores de la economía, que brindan un grupo de
aportes importantes en la ciencia (Espino Valdés, Sánchez Sánchez, & Aguilera Martínez, 2013;
Martínez & López, 2011; Nogueira Rivera, 2002; Porporato & García, 2011; Sánchez Silva, 2007).
En este sentido, dentro de las herramientas del control de gestión, el CMI ha sido empleado con
fuerza en los últimos 25 años en diferentes sectores y ramas de la economía. De hecho, en los
últimos años se presentan muchas aplicaciones en el sector de los servicios, tales como: la salud
pública (Naranjo Gil, 2010; Villalbí, 2007); los servicios universitarios (Moreno Freites, Eduardo
Caballero, & Bastidas, 2010); en empresas de software (González González & Bermúdez
Rodríguez, 2011). Las principales aportaciones del
CMI, como herramienta de gestión son:
centrarse en el control de los objetivos estratégicos de la organización, establecer una relación
causa – efecto entre los indicadores de control seleccionados y el realizar el control a un número
reducido de indicadores en tiempo real.
Desde su propia concepción el CMI se encuentra asociado a los procesos de planificación
estratégica, sin embargo resultan escasos los intentos por asociar la gestión por procesos durante
el proceso de planificación y generalmente es usado como herramienta de mejora (Medina León,
Nogueira Rivera, Hernández Nariño, & Viteri, 2010).
En la presente investigación se demuestra lo importante y factible de la incorporación de la
filosofía de procesos a la planificación estratégica. La determinación de los procesos, su
clasificación y formalización, de conjunto con la planificación estratégica; así como, la evaluación
del alineamiento estratégico entre ambos y el uso del cuadro de mando integral permiten
simplificar el camino y llevar al logro de la eficacia en las organizaciones.
4. Conclusiones y Recomendaciones
Con el propósito de analizar la situación del control de gestión en las organizaciones, y a partir de
los resultados alcanzados, se puede concluir que existe la necesidad de trabajar en función de
integrar las herramientas de control de gestión en las organizaciones.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
18
En la propuesta metodológica definida, como elemento novedoso, se integra la definición de los
procesos desde la propia planificación estratégica, así como el diseño de la matriz de impacto de
los procesos/objetivos estratégicos en función de la evaluación del alineamiento de los mismos.
Se incluye además un procedimiento que facilita la definición de los mapas estratégicos en las
organizaciones.
En la empresa comercializadora, establecida como caso de estudio durante el período
investigado, a partir del despliegue de la estrategia y la realización de acciones correctivas
durante su ejecución, se logra disminuir en uno los indicadores evaluados de mal e incrementar
los evaluados de excelente en cuarto, logrando mejoras en su gestión.
La implementación del procedimiento propuesto, con su instrumental metodológico se logró en un
grupo de organizaciones y los resultados alcanzados reflejan un perfeccionamiento en la gestión
organizacional al mejorar sus indicadores de eficiencia y eficacia.
Bibliografía
Agudelo Tobón, L. F., & Escobar Bolívar, J. (2010). Gestión por procesos. Medellín: ICONTEC.
Amo Baraybar, F. (2010). El cuadro de mando integral (The balanced scorecard). Barcelona: ESIC
Editorial.
Boada Grau, J., & Gil Ripoll, C. (2009). Gestión estratégica de recursos humanos como
antecedente del balanced scorecard. Revista de Psicología del Trabajo y de las
Organizaciones, 25(2).
Borchardt, M., Alfonso Sellito, M., & Medeiros Pereira, G. (2007). Instrumento de avaliação para
melhorias em processos organizacionais: caso do transporte coletivo rodoviário urbano de
Porto Alegre. Produção, 17(2), 302-316.
Comas Rodríguez, R. (2013). Integración de herramientas de control de gestión para el
alineamiento estratégico en el sistema empresarial cubano. Aplicación en empresas de
Sancti Spiritus. (Tesis presentada en opción al grado científico de Doctor en Ciencias
Técnicas), Universidad de Matanzas Camilo Cienfuegos, Matanzas
Del Canto, E. (2011). Gerencia estratégica y capital humano. Su prospectiva en los gobiernos
locales en el contexto venezolano. Revista Ciencias Estratégicas., 19(26), 171-184.
Espino Valdés, A., Sánchez Sánchez, R., & Aguilera Martínez, A. (2013). Procedimiento para el
control de gestión en la Empresa de Campismo Popular de Villa Clara. Ingeniería Industrial,
XXXIV(2), 227-236.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
19
González González, P., & Bermúdez Rodríguez, T. (2011). Gerenciando intangibles en empresas
de software aplicando el proceso de análisis por jerarquías y el cuadro de mando integral.
Rev fac cienc econ, XIX(2), 89-104.
Kaplan, & Norton, D. P. (2008). The execution premium. Integrando la estrategia y las operaciones
para lograr ventajas competitivas (1ra ed.). Barcelona: Ediciones Deusto.
Martínez, E. A., & López, M. I. (2011). Control de gestión en unidades de producción de ganadería
de doble propósito. Visión Gerencial, 10(2), 325-340.
Medina León, A., Nogueira Rivera, D., Hernández Nariño, A., & Viteri, J. (2010). Relevancia de la
gestión por procesos en la planificación estratégica y la mejora continua. Revista Eídos, 2.
Moreno Freites, Z., Eduardo Caballero, A., & Bastidas, E. (2010). Planificación estratégica y el
cuadro de mando integral: herramientas de gestión para mejora la prestación de los
servicios universitarios. TEACS, 3(5), 9-23.
Naranjo Gil, D. (2010). El uso del cuadro de mando integral y del presupuesto en la gestión
estratégica de los hospitales públicos. Gaceta Sanitaria, 24(3), 220-224.
Nogueira Rivera, D. (2002). Modelo conceptual y herramientas de apoyo para potenciar el control
de gestión en las empresas cubanas. (Tesis presentada en opción al grado científico de
Doctor en Ciencias Técnicas), Universidad de Matanzas "Camilo Cienfuegos", Matanzas.
(Tesis en el repositorio de Ingeniería Industrial)
Paladino, B., & Williams, N. (2008). Moving Strategy Forward: Merging the Balanced Scorecard
and Business Intelligence. Business Performance Management Magazine, 6(2), 12.
Porporato, M., & García, N. (2011). Sistemas de control de gestión: un estudio exploratorio de su
efecto sobre el desempeño organizacional. Academia. Revista Latinoamericana de
Administración, 47, 61-77.
Sánchez Silva, E. (2007). Diseño de un sistema de Control de Gestión para el departamento de
movilización
de
la
ilustre
Municipalidad
de
Maipú.
http://www.cybertesis.cl/tesis/uchile/2007/sanchez_e/html/index-frames.html
Shpilberg, D., Berez, S., Puryear, R., & Shah, S. (2007). Avoiding the alignment trap in IT. MIT
Sloan Management Review, 49(1), 51.
Villalbí, J. (2007). El Cuadro de Mando Integral como instrumento de dirección en una
organización de salud pública. Gaceta Sanitaria, 21(1), 60-65.
Enfoque UTE, V.6-N.3, Sep.2015, pp.1 - 19
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/07/27
Aceptado (Accepted): 2015/09/14
CC BY-NC-ND 3.0
Sistema automatizado para la predicción de flujo de carga en
subestaciones eléctricas mediante redes neuronales artificiales
(Automated system for load flow prediction in power
substations using artificial neural networks)
Arlys Michel Lastre Aleaga1, Erik Fernando Méndez Garcés1, Alexis Cordovés García1
Resumen:
El flujo de carga tiene gran relevancia en la asistencia del proceso de toma de decisiones y
planificación de la generación, distribución y trasmisión de energía eléctrica. El
desconocimiento de los valores de este indicador, así como su inadecuada predicción, dificulta
la toma de decisiones y eficiencia del servicio eléctrico, además puede ocasionar situaciones
indeseadas tales como; la sobre demanda, el sobre calentamiento de los componentes que
integran una subestación, y la no correcta planificación de los procesos de generación y
distribución eléctrica. Dada la necesidad de predicción de flujo de carga eléctrica de las
subestaciones en el Ecuador la presente investigación propone la concepción para el desarrollo
de un sistema automatizado de predicción empleando el uso de Redes Neuronales Artificiales.
Palabras clave: Predicción; Carga Eléctrica; Redes Neuronales Artificiales.
Abstract:
The load flow is of great importance in assisting the process of decision making and planning of
generation, distribution and transmission of electricity. Ignorance of the values in this indicator,
as well as their inappropriate prediction, difficult decision making and efficiency of the electricity
service, and can cause undesirable situations such as; the on demand, overheating of the
components that make up a substation, and incorrect planning processes electricity generation
and distribution. Given the need for prediction of flow of electric charge of the substations in
Ecuador this research proposes the concept for the development of an automated prediction
system employing the use of Artificial Neural Networks.
Keywords: Prediction; Electric Charge; Artificial Neural Networks.
1. Introducción
Las Redes Neuronales Artificiales (RNA) son un paradigma de aprendizaje y procesamiento
automático inspirado en la forma en que funciona el sistema nervioso del ser humano. Se trata de
un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de
salida (Mitchel, 1997) .En inteligencia artificial es frecuente referirse a ellas como redes de
neuronas o redes neuronales.
El flujo de cargas (también flujo de potencias) es la herramienta fundamental para estudiar un
sistema de transporte o de distribución de energía eléctrica en régimen permanente, y para poder
tomar las medidas oportunas, tanto desde el punto de vista de la explotación (simulación de
1
Universidad Tecnológica Equinoccial, Sto. Domingo de los Tsáchilas - Ecuador ( {arlys.lastre, mgef506202,
alexis.cordoves} @ute.edu.ec )
21
acciones sobre un sistema existente), como desde el punto de vista de la planificación y
simulación de planes de expansiones futuras (Barrero, 2004, pág. 155).
En ingeniería eléctrica el uso de redes neuronales artificiales es relativamente nuevo, aunque en
la última década ha tenido un avance sustancial. Los antecedentes teóricos y prácticos existentes
que relacionen las RNA y la predicción de flujo de carga eléctrica son muchas veces incompletos
en su estructura, ya que algunos no integran una GUI (Interfaz gráfica de usuario) que permite
presentar sistemas dinámicos de cálculo y predicción con el usuario.
Cabe recalcar que varias universidades han desarrollado como parte de sus investigaciones
varios modelos de predicción con redes neuronales artificiales, de esto se pueden destacar varias
investigaciones realizadas en países de habla hispana como España, Perú y Colombia.
En la presente investigación se propone el desarrollo de un sistema automatizado de predicción
empleando el uso de redes neuronales artificiales para determinar de manera fiable y precisa el
flujo de carga en subestaciones eléctricas, considerando las exigencias técnicas y de demanda
características de cada una de ella. Para lograr este fin se utilizaran los datos históricos de
potencia de una subestación eléctrica de la empresa estatal “Transelectric EP” como caso de
estudio para estos fines.
La predicción de este índice energético es de gran importancia para la toma de decisiones en la
planificación de la generación de electricidad donde el “Centro Nacional de Control de Energía”
(CENACE) es el ente regulador principal para este propósito, de la misma forma, el flujo de
potencia es necesario para asegurar la fiabilidad energética, favorece el correcto y oportuno
mantenimiento, y la asistencia en la toma de decisiones en la distribución de energía eléctrica que
demanda la “Corporación nacional de electricidad” (CNEL EP).
Las interpolaciones, extrapolaciones y cualquier método de aproximación existente en la
actualidad, no permiten conocer con precisión cuál será la demanda futura en una subestación
eléctrica. Por ello, es necesario disponer de un método capaz de predecir, de manera fiable,
veraz, y con un mínimo error de cálculo.
Es por eso y teniendo conocimiento de la problemática a la hora de predecir el flujo de carga se
plantea: desarrollar un sistema que permita predecir este índice energético aplicando los principios
de las redes neuronales artificiales. Por consiguiente se debe reconocer que para el desarrollo del
sistema de predicción se deberá integrar la programación lógica del mismo, haciendo uso de
herramientas informáticas que permitan dar solución a dicho problema.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
22
2. Metodología
La energía es la capacidad que poseen los cuerpos para poder efectuar un trabajo a causa de su
constitución (energía interna), de su posición (energía potencial) o de su movimiento (energía
cinética). Es una magnitud homogénea con el trabajo, por lo que se mide en las mismas unidades,
es decir en julios en el Sistema Internacional.
Según la forma o el sistema físico en que se manifiesta, se consideran diferentes formas de
energía: térmica, mecánica, eléctrica, química, electromagnética, nuclear, luminosa, etc. (Nuclear,
2014).
La potencia se transmite o se transfiere cuando existe flujo de electricidad, es un índice energético
que tiene una estrecha relación, específicamente la potencia se define como el trabajo realizado
por unidad de tiempo por lo que sus dimensiones en el sistema internacional se expresan en
Joules (J) sobre segundo (s) tal y como se referencia en la Ecuación 1, (Segui, Sanchez, & Orts,
2002).
𝑷=
𝑻 (𝑻𝒓𝒂𝒃𝒂𝒋𝒐)
𝒕 (𝒕𝒊𝒆𝒎𝒑𝒐)
(1)
A partir de esa definición general se puede representar y dar forma a la potencia eléctrica que no
es nada más que la relación del trabajo eléctrico o energía que se disipa por unidad de tiempo.
En corriente continua la potencia es igual al producto de la tensión (Voltios) por la corriente
(Amperios) que circula por el circuito, pero en cambio analizando la corriente senoidal o corriente
alterna se obtiene la integración del tiempo, y en adición a las cargas resistivas habituales que se
integran en la corriente continua, se deben incluir dos cargas más para el análisis, generalmente
las cargas se dividen en:

Cargas lineales o cargas resistivas

Cargas no lineales o cargas inductivas y capacitivas.
En la Figura 1 se detalla la relación de ambos tipos de cargas por medio de un triángulo
denominado “Triángulo de potencias” en el análisis de la corriente alterna.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
23
Figura 1. Triángulo de las potencias en la corriente alterna
En Weedy (Weedy, 2012, pág. 4), se define potencia como:
“Los sistemas de suministro de energía eléctrica modernos son invariablemente trifásicos. La
red de distribución se proyecta de forma que su funcionamiento normal es razonablemente
próximo al de las tres fases equilibradas y con frecuencia basta con estudiar las condiciones
eléctricas de una sola fase para obtener un análisis completo. Se asegura la carga igual de las
tres fases de una red haciendo, siempre que sea posible, que las cargas domésticas se
repartan por igual entre las fases de las líneas de distribución de baja tensión; normalmente las
cargas industriales son siempre trifásicas.”
En (Weedy, 2012) específicamente se habla de la forma en la que se transmite actualmente la
energía en un sistema eléctrico. Es muy importante recalcar el medio de transmisión ya que en
este mismo proceso y con datos efectivos resultantes del mismo se pueden orientar procesos de
mayor relevancia como la producción o generación de energía eléctrica y mantenimiento de
servicios de un sistema eléctrico.
Flujo de potencia o flujo de carga
En el lenguaje convencional de los sistemas eléctricos de potencia se emplea el término flujo de
carga para expresar una solución de estado en régimen permanente de la red objeto de estudio.
Esta solución ha de aportar como información los valores de las tensiones en todos sus nudos, los
flujos de potencias activa y reactiva por cada línea, así como corrientes, factores de potencia, etc.
(Coto Aladro, 2002, pág. 119).
El análisis del flujo de cargas concierne no solo al mecanismo físico que controla el flujo de
potencias en una red sino también permite la búsqueda de la configuración óptima de flujo de
todas las posibles.
Dentro del subsistema de distribución, los centros de transformación tienen como función reducir
la tensión de la red de distribución a los valores de consumo doméstico (120, 230 y 400 V), es
decir a baja tensión.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
24
Un sistema eléctrico es el corazón energético de un país, haciendo posible que el consumidor
final, las personas, puedan aprovechar de manera fiable, eficiente y con un alto nivel de
confiabilidad la energía eléctrica
obtenida y transportada por procesos variados que
generalmente, varían en cada país, adecuándose a las características de producción de la
energía.
La transmisión de energía eléctrica tiene un rol fundamental a la hora de trasladar la energía
generada desde las plantas generadoras hasta los puntos de distribución siendo estos
generalmente el consumidor final. En la transmisión eléctrica debemos considerar varios aspectos
que enmarcan el papel fundamental que tiene este subsistema en el desarrollo energético de un
país.
El mundo tiende al uso de las fuentes de energía renovables para producir lo que denominamos
energía limpia. Así, el estado ecuatoriano está invirtiendo recursos para poder obtener una matriz
energética basada en fuentes energéticas renovables (Robalino Quito, 2012).
El Ecuador es un país con características topográficas muy variadas, de gran diversidad climática
y condiciones únicas que le confieren un elevado potencial de energías renovables y limpias, las
cuales no pueden quedar al margen del Inventario de los Recursos Energéticos para Producción
Eléctrica, pues las condiciones de cobertura y satisfacción de la demanda que se presentan en la
actualidad, demuestran un estrecho vínculo especialmente con la electrificación y energización
rural.
En los últimos 15 años el país ha tenido una gran demanda por fuentes de generación de energía
relacionadas con combustibles fósiles, en el país según la Secretaría Nacional de Planificación y
Desarrollo, en su plan del buen vivir, el 43.3 % de la energía es proveniente de la generación
eléctrica por medio de combustibles fósiles, y el 45.3% proviene de las empresas hidroeléctricas
ya en ejecución. El otro porcentaje restante es proveniente de fuentes de generación alterna y de
la importación de energía.
Con el paso de los años y acorde con el nuevo plan nacional del “Buen vivir” (2013-2017) en su
punto 5 “Planificamos el futuro” menciona que progresivamente se reducirá el uso de fuentes de
energía que integren fuentes no renovables como lo son los combustibles fósiles que no son
amigables con el medio ambiente, y pasar a hacer uso ya de las fuentes renovables que el país
dispone en materia de producción de energía eléctrica como son las generadoras hidroeléctricas y
los proyectos alternos de producción de energía, como la generación de energía solar, eólica,
biomasa, mareomotriz, entre otros (ver Tabla 1).
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
25
Tabla 1. Producción anual de enérgia eléctrica en el Ecuador según su fuente energética.
Fuente: CONELEC (Consejo nacional de electricidad)
La empresa pública encargada de la generación y transmisión de la energía eléctrica en el
Ecuador es la Corporación Eléctrica del Ecuador (CELEC). Actualmente, se encuentra
conformada por 8 unidades de generación hidroeléctrica (Enerjubones, Enernorte, Hidroagoyan,
Hidronacion, Hidropaute, Hidrotoapi, Hidronacion, Hidroazogues), 4 de generación térmica
(Electroguayas, Termoesmeraldas, Termopichincha, Termogas Machala), una de generación
eólica (Gensur), y una unidad de transmisión eléctrica (Transelectric).
Con una inversión de 4.983 millones de dólares, nuevos proyectos aumentarán a 6.779
megavatios de potencia la capacidad instalada en el país, que ahora es de 3.770 megavatios. Los
principales proyectos en ejecución son Coca-Codo-Sinclair (con una capacidad de 1.500
megavatios), Toachi-Pilatón (253 megavatios) y Sopladora con 487 megavatios.
Con respecto a la transmisión eléctrica en el país la empresa encargada es “TRANSELECTRIC”,
una división de “CELEC EP” es responsable de operar el Sistema Nacional de Transmisión, y su
objetivo fundamental es el transporte de energía eléctrica, garantizando el libre acceso a las redes
de transmisión a los agentes del Mercado Eléctrico Mayorista, compuesto por generadores,
distribuidores y grandes consumidores. Cabe recalcar que el transmisor no puede comercializar
energía eléctrica.
Es necesario también enunciar algunos datos de interés del sistema de transmisión ecuatoriano
para así comprender la realidad general del trabajo de investigación. A continuación en la Tabla 2
se citan caracteristicas variadas del sistema.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
26
Tabla 2. Caracteristicas generales del Sistema Nacional de Transmisión
Fuente: TRANSELECTRIC
El documento habilitante para la toma de decisiones y planificación de energía eléctrica en el
Ecuador es el Plan Maestro de Electrificación (PME) que constituye una herramienta integral e
intersectorial de planificación que permite determinar las inversiones orientadas a garantizar el
normal abastecimiento de energía eléctrica a la demanda nacional, a través del desarrollo de
proyectos de generación, expansión, distribución y transmisión a corto, mediano y largo plazo.
Una visión integral del país, que toma en consideración las realidades y políticas de todos los
sectores de la economía, entre ellos la matriz productiva, el desarrollo del sector minero y la
prestación del servicio al sector hidrocarburífero, implica necesariamente considerar la expansión
de toda la cadena de suministro. La proyección de la demanda, constituye el elemento integrador
sobre el cual se desarrolla la planificación de la expansión del sistema con una visión global.
La planificación de la generación y distribución eléctrica es tratada como un problema de
optimización para encontrar la estrategia óptima en la hoja de ruta de inversión y construcción de
nuevas fuentes de generación, a la vez que se satisfacen las restricciones técnicas y económicas
del problema de Despacho Económico Hidrotérmico y de la demanda proyectada futura para el
Sistema Nacional Interconectado del Ecuador (límites de embalses, disponibilidad de generación y
costos variables). En la actualidad debido al cambio producido en la estructura del mercado
eléctrico ecuatoriano en base a una estructuración vertical con mayoritaria participación del
Estado, la prioridad no está en el beneficio financiero de una inversión, lo primordial es el beneficio
social, la capacidad de autoabastecimiento y la soberanía energética.
El propósito de la planificación es proveer de una herramienta de decisión que permita la toma de
decisiones en la ejecución de proyectos de generación eléctrica futura. El análisis se centra en
determinar “opciones reales” en contextos probables de ocurrencia, lo que significa insertar al
análisis, incertidumbres que podrían provocar no siempre que un escenario óptimo
financieramente sea el más adecuado.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
27
Importancia de la predicción de flujo de carga
El desarrollo del sector eléctrico es estratégico; por lo tanto, debe garantizar el abastecimiento
energético, principalmente mediante el incremento de la participación de la generación
hidroeléctrica debido a las características topográficas del Ecuador que permitirá reducir
progresivamente la generación termoeléctrica; así también, debe fortalecer la red de transmisión y
sub-transmisión, adaptándolas a las actuales y futuras condiciones de oferta y demanda de
electricidad.
Esto se complementa con la inserción paulatina del país en el manejo de otras fuentes de energía
renovable como: energía solar, eólica, geotérmica, de biomasa, mareomotriz; estableciéndose
como las principales alternativas sostenibles en el largo plazo para la generación de energía
eléctrica.
Dentro de este contexto, la proyección de la demanda se convierte en el eje fundamental a partir
del cual se desarrolla la planificación, debido a que considera una serie de hipótesis debidamente
sustentadas que contemplan la evolución histórica de la demanda eléctrica a nivel nacional, los
impactos producidos por la incorporación de cargas especiales al sistema, variables políticas,
económicas, sociales, ambientales y tecnológicas que se reflejan en el comportamiento de la
demanda eléctrica.
Como parte de los lineamientos establecidos por el Ministerio de Electricidad y Energía
Renovable, MEER, respecto a la demanda eléctrica, se señala que: “... la proyección de la
demanda, que constituye el elemento básico y fundamental sobre el cual se desarrolla la
planificación de la expansión del sistema, debe considerar además del crecimiento tendencial de
la población y del consumo, la incorporación de importantes cargas en el sistema, como son los
proyectos mineros, la Refinería del Pacífico, el cambio de la matriz energética productiva del país;
y, fundamentalmente, la migración de consumos de GLP y derivados de petróleo a electricidad,
una vez que el país cuente con la producción de los proyectos de generación que hoy se ejecutan.
También se deben considerar los efectos de las acciones que se desarrollan para mejorar la
eficiencia energética en los sectores residencial y productivo.” (MEER, 2013)
Para evaluar y ver la factibilidad de implementación de un modelo de predicción es necesario
considerar diversos aspectos. Las características más importantes, necesarias para la predicción
(Lei, Shiyan, Chuanwen, Hongling, & Yan, 2009) son: variables de predicción, entradas del
modelo, tipo de modelo, horizonte y tiempo de muestreo, criterio para evaluar el resultado y los
respectivos resultados.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
28
3. Materiales y métodos
Quizás la parte más difícil en la construcción de un buen modelo de red neuronal es la relacionada
con selección y recogida de la información que alimentará al mismo en la fase de entrenamiento.
A partir de investigaciones realizadas y consultas a expertos, se ha podido recolectar la data
histórica de mediciones de demanda de carga eléctrica en la subestación eléctrica en Santo
Domingo de los Tsáchilas, a partir de la cual se ha realizado todo el proceso de análisis para la
comprobación de la integridad y limpieza de los datos.
Resulta necesario establecer las variables de entrada para determinar la arquitectura del sistema.
En el caso de estudio, a partir de la información histórica disponible, se determinan como
variables de entrada, los valores correspondientes a hora, día y mes; como variable de salida la
carga eléctrica demandada en el periodo correspondiente.
A partir de la definición del periodo de
predicción, el sistema entregará los resultados que
describan detalladamente los consumos de cargas asociados. Para ello se ha determinado el nivel
de información necesario, según el periodo de predicción (ver Tabla 3).
Teniendo en cuenta los tipos de datos y la información necesario a entregar, según el periodo de
predicción, se desarrolló el algoritmo que describe el proceso general, desde la entrada de datos
hasta la generación de reportes predictivos (ver figuras 2, 3 y 4).
Tabla 3. Entrega de resultados según el periodo de prediccion
Periodo a
Predecir
Diario
Entrega de Resultados
Mensual
(mes, Día 1,MediaDia1)
.
(mes,Día n MediaDian)
Todo el año
(mes 1, Día 1,MediaDia1)
.
(mes 12, Día n MediaDian)
(Día, hora 1)
.
(Día, hora 23)
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
29
Figura 2. Algoritmo general del sistema.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
30
Figura 3. Subrutina A. Ciclo de llamadas para
estimar el pronóstico del mes.
Figura 4. Subrutina B. Ciclo de llamadas para
estimar el pronóstico del año.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
31
4. Resultados y discusión
Para la evaluación de los resultados, se compararon datos referentes a la predicción del sistema
automatizado de ciertos días del mes de Septiembre, y de todo el mes en general, cabe recalcar
que la RNA se modelo en función de los siguientes datos reales de la subestación “Santo
Domingo”, estos son:

Datos de carga (potencia aparente) del mes de Junio del 2014

Datos de carga (potencia aparente) del mes de Julio del 2014

Datos de carga (potencia aparente) del mes de Agosto del 2014
Los registros históricos adicionales obtenidos de Septiembre de 2014 permitieron la comparación
“Predicción” vs “Real” del presente sistema automatizado, a continuación se enumeran distintos
casos de evaluación de días aleatorios del mes de Septiembre, y adicional a estos una
comparativa mensual del mes antes mencionado.
Análisis del día 3 de Septiembre de 2014
El presente análisis se hizo considerando los datos del día 3 de Septiembre haciendo una
comparativa con los datos reales registrados en la subestación eléctrica de transmisión “Santo
Domingo” con los datos de predicción del sistema automatizado, los resultados se muestran en la
Figura 5.
Figura 5. Resultados de comparación del día de 3 de Septiembre de 2014
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
32
De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la
predicción realizada por la RNA, las generalidades se destacan a continuación:

La fiabilidad máxima de predicción fue de 99.90% donde el error mínimo obtenido fue de
0.095% a las 10:00 am del presente día.

La fiabilidad mínima de la predicción fue de 94.74% donde el error obtenido fue de 5.26%
a las 6:00 am del presente día.

La fiabilidad total de la predicción de la RNA fue de 98.8%, donde la media del error del
presente día fue “1.2%”.
Los resultados se catalogan como “muy satisfactorios” denotando nuevamente la fiabilidad y
capacidad de la RNA en la predicción de flujo de carga (Potencia aparente).
Análisis del día 6 de Septiembre de 2014
El presente análisis se hizo considerando los datos del día 6 de Septiembre haciendo una
comparativa con los datos reales registrados en la subestación eléctrica de transmisión “Santo
Domingo” con los datos de predicción del sistema automatizado, los resultados se muestran en la
Figura 6.
Figura 6. Resultados de comparación del día de 6 de Septiembre de 2014
De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la
predicción realizada por la RNA, las generalidades se destacan a continuación:

La fiabilidad máxima de predicción fue de 99.57% donde el error mínimo obtenido fue de
0.43 % a las 6:00 am del presente día.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
33

La fiabilidad mínima de la predicción fue de 92.96% donde el error obtenido fue de 7.049
% a las 9:00 am del presente día.

La fiabilidad total de la predicción de la RNA fue de 99.66%, donde la media del error del
presente día fue “0.34%”.
Los resultados se catalogan como “muy satisfactorios”, con una fiabilidad mayor (99.66%) en
comparación al análisis anterior denotando nuevamente la confiabilidad y capacidad de la RNA en
la predicción de flujo de carga (Potencia aparente).
Análisis de resultados el mes de Septiembre de 2014
El presente análisis se hizo considerando los datos de las medias aritméticas diarias del mes de
Septiembre haciendo una comparativa entre los datos reales registrados en la subestación
eléctrica de transmisión “Santo Domingo”, y los datos referentes a la predicción del sistema
automatizado, los resultados se muestran en la Figura 7.
Figura 7. Resultados de comparación mensuales (Septiembre)
De los datos obtenidos se destacan los resultados de fiabilidad máxima, mínima y media de la
predicción realizada por la RNA, las generalidades se destacan a continuación:

La fiabilidad máxima de predicción fue de 99.93% donde el error mínimo obtenido fue de
0.062 % del día 17 del presente mes.

La fiabilidad mínima de la predicción fue de 85.72% donde el error obtenido fue de 14.28
% del primer día del presente mes.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
34

La fiabilidad total de la predicción de la RNA fue de 95.76%, donde la media del error del
mes fue “4.24%”
5. Conclusiones y Recomendaciones
Conclusiones

El estudio de las series históricas de carga es el primer paso de gran importancia para un
modelo de previsión de carga. Es a partir de ella que se llegó a una determinación de la
arquitectura del modelo a ser utilizada, pues basada en este se definieron parámetros
importantes para la topología del modelo, tales como un sistema para cada día, mes y
anual.

La metodología de las redes neuronales aplicada a la previsión de demanda eléctrica,
puede representar una herramienta de gran utilidad, permitiendo alcanzar un adecuado
nivel de confiabilidad.

A fin de encontrar un patrón de carga adecuado para el día en que la carga horaria será
prevista, se puede construir una red neuronal que permita identificar aquellos días con
patrón de carga similar, agrupándolos en clases. Este modelo neuronal evitaría la entrada
de datos redundantes que no influyen en el comportamiento, además de los posibles
problemas que causarían en el proceso de previsión debido a la complejidad adicional que
se exige.

El desarrollo de un sistema de predicción de flujo de carga en el Ecuador que integre redes
neuronales artificiales es algo innovador, ya que relaciona dos campos de las ciencias
exactas, la informática con las poderosas herramientas de cálculos que permiten el
desarrollo de modelaciones matemáticas más precisas en la predicción, y por otra parte la
integración de la ingeniería eléctrica siendo uno de los ejes de desarrollo del país, tal y
como la indica la “Matriz productiva” en su lineamiento “10.9.a”

La propuesta de un algoritmo como conceptualización del sistema, no excluye el estudio
de otras metodologías aplicables a la estimación de carga. Las sugerencias de trabajos
futuros para la previsión de carga utilizando técnicas de inteligencia computacional, tales
como modelos híbridos neuro-fuzzy, entre otros.
Recomendaciones

La necesaria implementación de la concepción propuesta y el estudio de contraste
correspondiente para evaluar el nivel de respuesta del sistema de predicción.
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
35

Se recomienda realizar una futura investigación de redes neuronales artificiales para la
predicción considerando más variedades de índices energéticos, desarrollando sistemas
automatizados, que mejoren aún más la fiabilidad de la predicción, y puedan
retroalimentarse en tiempo real con los datos de subestaciones eléctricas del país para
mejorar la planificación energética, esto se conseguiría si se incorpora el concepto de
“Minería de datos” para futuras investigaciones.
Bibliografía
Barrero, F. (2004). Sistemas de energía eléctrica. Madrid: Paraninfo.
Coto Aladro, J. (2002). Análisis de sistemas de energia eléctrica. Oviedo: Universidad de Oviedo.
Lei, M., Shiyan, L., Chuanwen, J., Hongling, L., & Yan, Z. (2009). A review on the forecasting of
wind. Renewable and Sustainable Energy Reviews 13, 915-920.
MEER. (2013). Plan Maestro de Electrificación. Quito.
Mitchel, T. (1997). Machine Learning. McGraw Hill.
Nuclear,
F.
(2014).
Foro
Nuclear.
Obtenido
de
http://www.foronuclear.org/es/energia-
nuclear/faqas-sobre-energia/capitulo-1
Robalino Quito, R. A. (9 de Julio de 2012). Fuentes de generación eléctrica. Loja, Loja, Ecuador:
Universidad Técnica Particular de Loja.
Segui, S., Sanchez, C., & Orts, S. (2002). Fundamentos básicos de la electrónica de potencia.
Valencia: Reproval, S.L.
Weedy, B. M. (2012). Electric Power Systems. UK: Wiley .
Enfoque UTE, V.6-N.3, Sep.2015, pp.20 - 35
Enfoque UTE, V.6-N.3, Sep.2015, pp. 36 - 51
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9663
Recibido (Received): 2015/04/30
Aceptado (Accepted): 2015/09/14
CC BY-NC-ND 3.0
Windows Server 2012 vulnerabilities and security
(Vulnerabilidades y Seguridad de Windows Server 2012)
Gabriel R. López1, Danny S. Guamán1, Julio C. Caiza1
Abstract:
This investigation analyses the history of the vulnerabilities of the base system Windows Server
2012 highlighting the most critic vulnerabilities given every 4 months since its creation until the
current date of the research. It was organized by the type of vulnerabilities based on the
classification of the NIST. Next, given the official vulnerabilities of the system, the authors show
how a critical vulnerability is treated by Microsoft in order to countermeasure the security flaw.
Then, the authors present the recommended security approaches for Windows Server 2012,
which focus on the baseline software given by Microsoft, update, patch and change
management, hardening practices and the application of Active Directory Rights Management
Services (AD RMS). AD RMS is considered as an important feature since it is able to protect the
system even though it is compromised using access lists at a document level. Finally, the
investigation of the state of the art related to the security of Windows Server 2012 shows an
analysis of solutions given by third parties vendors, which offer security products to secure the
base system objective of this study. The recommended solution given by the authors present
the security vendor Symantec with its successful features and also characteristics that the
authors considered that may have to be improved in future versions of the security solution.
Keywords: Windows Server 2012, vulnerabilities, CVE, operating systems security,
Resumen:
El presente trabajo de investigación analiza la historia de vulnerabilidades del sistema base
Windows Server 2012, resaltando las más críticas por cuatrimestres desde su creación hasta la
fecha actual organizado por tipo de vulnerabilidad de acuerdo a la clasificación de la NIST. A
continuación dadas las vulnerabilidades oficiales, los autores presentan cómo una
vulnerabilidad considerada crítica es tratada por Microsoft para mitigarla. Luego los autores
proponen medidas de seguridad para Windows Server 2012, donde se enfocan básicamente
en baseline de Microsoft, administración de actualizaciones, buenas prácticas de hardening y
aplicación de Active Directory Rights Management Services (AD RMS). AD RMS se considera
como una valiosa característica que tiene como objetivo la protección del sistema a pesar que
éste se encuentre comprometido usando listas de acceso a nivel de documento. Finalmente la
investigación del estado del arte de la seguridad de Windows Server 2012 muestra un análisis
de soluciones desarrollados por terceros para la protección del sistema operativo objeto del
estudio. Como solución de seguridad recomendada los autores presentan a Symantec
mostrando sus propiedades de éxito, así como características que podrían ser implementadas
en versiones futuras como una oportunidad de mejora.
Palabras clave: Windows Server 2012, vulnerabilidades, CVE, seguridad de sistemas
operativos,
1
Escuela Politécnica Nacional, Quito – Ecuador ( {gabriel.lopez, danny.guaman, julio.caiza} @epn.edu.ec )
37
1. Introduction
Something new in a perfect world maybe perfect, but since IT administrators live in a real world, all
pieces of software have problems and errors. The problems that base systems or operating
systems may have are known as vulnerabilities. The operating system of a server has
vulnerabilities, which are really critical if they are exploited since servers provide services and a
disruption may affect a lot of users. This is why the authors have chosen to study the vulnerabilities
of Windows Server 2012, which is the last version of the operating systems for Microsoft servers.
The study has as its objective to research about the state of the art of the vulnerabilities and
security related to Windows Server 2012 since its creation. The investigation starts presenting the
current status of its vulnerabilities, which affects the operating system based on the classification
used by the National Institute of Standards and Technology (NIST). Each type of vulnerability will
be detailed in order from the most common to the less common highlighting the most critical
vulnerability of each different kind. In addition, it is showed how one of the most critical
vulnerabilities work and how it has been solved by the vendor. Furthermore, the authors suggest
Security approaches to mitigate vulnerabilities and security flaws that affect Windows Server 2012.
Finally, it is showed how third parties help to protect Windows Server 2012 using as a reference
the information technology research and advisory company Gartner.
2. Windows Server 2012 vulnerabilities Review
Windows Server 2012 has experienced 168 official Common Vulnerabilities and Exposures (CVE),
according to the database of the National Institute of Standards and Technology (NIST 2015) since
its release on September 4th of 2012 (Microsoft 2012) until April 2015 when the investigation was
performed. The 168 vulnerabilities of Windows Server 2012 in this period of almost three years has
gotten different types of Common Weakness Enumeration (CWE), which helps to categorize the
vulnerabilities (CWE 2013). To begin, the majority of CWE for Windows Server 2012 are
Permissions, Privileges and Access Control with the 25% of the total (See Table 1), which means
that the system has problems in managing access restrictions. Table 1 shows the Common
Weakness Enumeration (CWE) of Windows Server 2012, which is a list of software weaknesses
about the operating system; with the corresponding numbers of vulnerabilities found in a period of
every 4 months since the release of the software. The vulnerabilities of this CWE cause in general
gain privileges attacks, man in the middle attacks and remote or physically code execution with a
USB, which could provoke a denial of service. The vulnerabilities CVE-2013-3175 published on
August 14th of 2013 and CVE-2013-0073 published on February 13th of 2013 have both a CVSS
(Common Vulnerability Scoring System) of 10.0, so they are the most dangerous of the CWE of
Permissions, Privileges and Access Control. These vulnerabilities allows the attacker to do a
remote code execution (NIST 2015).
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
38
Table 1. Vulnerabilities of Windows Server 2012 classify by CWE (NIST 2015).
2012
CWE
September December
2013
January April
May August
2014
September December
January April
May August
2015
September December
January April
2012 - 2015
#
%
Permissions,
Privilegies and
Access Control
1
6
4
2
3
7
4
15
42
25
Buffer Errors
1
3
7
8
3
2
0
2
26
15
Resource
Management Errors
2
12
1
2
1
2
1
2
23
14
Code Injection
1
1
2
2
0
1
5
8
20
12
Input Validation
2
2
0
6
1
4
2
2
19
11
Information Leak /
Disclosure
0
1
1
1
0
0
1
8
12
7
Other
1
1
1
0
0
1
1
6
11
7
Numeric Errors
2
1
0
2
0
0
0
0
5
3
Race Conditions
0
4
0
0
0
0
0
0
4
2
Insufficient
Information
0
2
0
0
0
1
0
1
4
2
Path Traversal
0
0
1
0
0
0
0
1
2
1
Total
10
33
17
23
8
18
14
45
168
100
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
39
The second most popular type of CWE for Windows Server 2012 are Buffer Errors with a 15% of
the total of vulnerabilities (See Table 1). This security issue in general helps the hacker to gain
access and do a remote code execution. The vulnerability CVE-2012-2897 published on
September 26th of 2012 has the highest Common Vulnerability Scoring System (CVSS) of 10.0 in
the Buffer Errors CWE. In this vulnerability, the kernel-mode drivers do not manage correctly the
objects in memory, causing that the attacker can do a remote code execution (NIST 2015).
The third most popular type of CWE for Windows Server 2012 is the resource management errors
with 14% of the total (See Table 1), which means that the hackers exploits the lack of control in
manipulating disk, memory or CPU of the server. This type of flaw provokes in general the
vulnerability of remote code execution. The vulnerability with the highest CVSS in the Resource
Management Errors CWE is CVE-2013-3195, which was published on October 9th of 2013 and it
has a CVSS of 10.0. The security issue for this case is that the DSA_InsertItem function in
Comctl32.dll is not assigning memory correctly, so it causes the problem of remote code execution
(NIST 2015).
The CWE of code injection represents the 12% of the vulnerabilities for Windows Server 2012 (See
Table 1). This flaw is related directly to vulnerabilities that allows the hacker to perform remote
code execution. In general this types of vulnerabilities have the highest Common Vulnerability
Scoring System (CVSS) (NIST 2015) because the hacker could be able to get full control over the
server. Five vulnerabilities that are part of the Code Injection CWE have the highest CVSS of 9.3.
CVE-2013-3894 published on October 9th of 2013, CVE-2013-3174 published on July 7th of 2013,
CVE-2013-3129 published on July 10th of 2013, CVE-2013-0007 published on January 9th of 2013
and CVE-2012-2556 published on December 12th of 2012 have the security issue of allowing the
attacker to do a remote code execution (NIST 2015) as it is shown in Table 2.
Table 2. Critical vulnerabilities for the CWE of code injection.
Published
CVE
Date
CWE
CVSS
CVE-2013-3894
09/10/2013
CVE-2013-3174
07/07/2013
CVE-2013-3129
10/07/2013
CVE-2013-0007
09/01/2013
CVE-2012-2556
12/12/2012
Code
Injection
9.3
The 11% of the Windows Server 2012 vulnerabilities are about input validation problems (See
Table 1), which in other words means that some data is not being checked to be valid. This kind of
CWE is related with vulnerabilities which in general could cause denial of service, malicious remote
code execution or man in the middle attacks. The vulnerabilities with the highest CVSS of 9.3 are
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
40
CVE-2013-3128 published on October 10th of 2013, CVE-2013-0004 published on January 9th of
2013 and CVE-2012-4776 published on November 14th of 2012. The three vulnerabilities permit
the attacker to do a remote code execution (NIST 2015).
The CWE for information leak/disclosure and other represents the 7% of the vulnerabilities of
Windows Server 2012 (See Table 1). This CWE means that the system has problems exposing
private information, which could lead to have vulnerabilities that will allow to obtain sensitive
information of the system. The vulnerability CVE-2013-3185 published on August 14th of 2013 has
the highest CVSS of 5.0 in the Information Leak / Disclosure CWE. In this vulnerability, Active
Directory Federation Services permits the attacker to get private information of the service account
(NIST 2015).
The numeric errors CWE represents the 3% of the vulnerabilities of Windows Server 2012 (See
Table 1), this flaw happens when the system gets errors when handling numbers. The
vulnerabilities related to this CWE may be able to cause attacks like gain privileges, remote code
execution or denial of service. Four vulnerabilities that are part of the Numeric Errors CWE have
the highest CVSS of 9.3. CVE-2013-3940 published on November 13th of 2013 and CVE-20130006 published on January 9th of 2013 have the security issue of allowing the attacker to do a
remote code execution. CVE-2012-1528 published on November 14th of 2012 and CVE-20121527 published on November 14th of 2012 have the security issue of allowing the attacker to gain
privileges (NIST 2015).
The CWE of race conditions is just the 2% of vulnerabilities of Windows Server 2012 (See Table 1)
and it represents problems about instability of the state of a resource. The CWE of this type in
general generates vulnerabilities that allows to gain privileges. Two vulnerabilities that are part of
the Race Conditions CWE have the highest CVSS of 6.9. CVE-2013-1292 and CVE-2013-1283
both published on April 9th of 2013 have the security issue of allowing the attacker to gain
privileges (NIST 2015).
The 2% of the vulnerabilities of Windows Server 2012 are considered that do not have a category
of CWE or there is not sufficient information to classify them (See Table 1). In the category of
insufficient information to classify the vulnerability as part of a CWE, the one with the highest
CVSS of 9.3 is CVE-2013-0074 published on November 3rd of 2013. This vulnerability allows the
attacker to do a remote code execution (NIST 2015).
Finally, the path traversal CWE is only the 1% of the vulnerabilities of Windows Server 2012 (See
Table 1). The vulnerability related to this CWE provokes a denial of service. The only vulnerability
of this category of CWE is the CVE-2013-3661 published on May 24th of 2013.
In this
vulnerability, the EPATHOBJ::bFlatten function in win32k.sys allows the attacker to perform a
denial of service (NIST 2015).
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
41
The figure 1 shows the official vulnerabilities of Windows Server 2012 from September 2012 to
April 2015 classified by the type of CWE based on the NIST classification.
Vulnerabilities of Windows Server 2012
50
40
30
20
10
0
September - January -April May -August
December
2012
September - January -April May -August
December
2013
September - January -April
December
2014
Permissions, Privilegies and Access Control
Buffer Errors
Resource Management Errors
Code Injection
Input Validation
Information Leak / Disclosure
Other
Numeric Errors
Race Conditions
Insufficient Information
2015
Path Traversal
Figure 1. Vulnerabilities of Windows Server 2012
Figure 1 shows that Windows Server 2012 from September 2012 to the period of May-August 2013
the vulnerability related to Resource Management Errors has the dominance in comparison with
the other vulnerabilities, but since that period of time the CWE that starts to grow is Buffer Errors
until January-April 2014. Finally the vulnerability type that has more official CVE related is
Permissions, Privileges and Access Control, which started to increase in the period of JanuaryApril 2014 and kept the dominance until the current period of January-April 2015.
3. Solution for a critical vulnerability of Windows Server 2012
Firstly, the authors have chosen the vulnerability CVE-2013-3195 due to its high CVSS, recentness
and type of CWE. To begin, the vulnerability due to the impact of 10.0, which means that it has a
complete impact on the metrics of confidentiality, integrity and availability. The exploitability has
also a value of 10.0 because its access vector is the network, the access complexity is low and it
does not require authentication (NIST 2015), so an attacker will be able to access remotely and
without a high complexity. In addition, the CVE-2013-3195 is the last official CVE vulnerability
published on December 20th of 2013, which has the max CVSS of 10.0 for Windows Server 2012.
Finally the type of CWE for CVE-2013-3195 is resource management errors, which is critical for
servers. This type of vulnerability could provoke that an external agent may take control of the
resources of a company, so the investment in the case of a server asset will not generate a benefit
for the organization if the server is compromised.
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
42
Secondly, the CVE-2013-3195 generates a problem which allows the hacker to execute arbitrary
code. The root cause of the security issue is that the DSA_InsertItem function in Comctl32.dll, has
problems allocating memory, so the attacker via network can do an execution of a malicious code
(NIST 2015). The function specifically puts a new item inside the dynamic structure array (DSA)
(Microsoft 2015). Moreover, the hacker in order to perform the attack can use a shaped value in an
argument placed to an ASP.NET web application, so this vulnerability is very critical for web
application servers. If the attacker can exploit this vulnerability can get the same privileges of
logged on user or a local user (NIST 2015). Also, this vulnerability only applies for systems of 64bit, since for 32-bit architectures this kind of attack vector is block by default in its configuration
(Microsoft 2015). Finally, exploits have not been developed for this vulnerability (Offensive Security
2015).
Thirdly, Microsoft has developed updates in order to countermeasure the vulnerability CVE-20133195. The solution has been published in the Microsoft Security Bulletin MS13-083 (US-CERT
2014), where the vulnerability has been identify as Vulnerability in Windows Common Control
Library with the ID 2864058 (Microsoft 2015). The security update has been classified as critical for
all 64-bit MS operating systems and it fixes the vulnerability because it correct the procedure that
the Windows common control library assigns memory for data structures. The Security Update for
Windows Server 2012 (KB2864058) can be downloaded from the Download Center of Microsoft by
the file name Windows8-RT-KB2864058-x64.msu (Microsoft 2015). After the installation of the
update, the system has to be restarted. In addition, the recommendations to prevent to have
problems with this kind of vulnerability are: deny external access to the server unless is necessary,
run software with users which have only the minimum and required privileges, the use of memoryprotection schemes, like non-executable stack/heap configurations (Symantec Corporation 2015).
It is important to mention that all the vulnerabilities presented in this section have been patched by
a Microsoft update since they do not represent zero-day attacks. Generally speaking, the
vulnerabilities formally presented by CVE, NIST and Microsoft have its solution published in the
Microsoft security Bulletin, which is realised on the Second Tuesday of each month (Microsoft
2015).
4. Security approaches for Windows Server 2012
Firstly, Microsoft Windows recommend the use of the tool Windows Server 2012 Security Baseline
in order to configure general best security practices for this operating system. To begin, this tool
helps to plan, deploy and monitor security hardening for the system (Microsoft 2015). The Baseline
software is a compendium of procedures for secure configuration of Windows Server 2012, which
shows the administrator a list of vulnerabilities related to the install environment of Windows Server
2012 in order to recognize threats, as well as recommendations supported with technical
information in order to apply countermeasures to solve the security issues. The security baseline is
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
43
managed by the Microsoft Security Compliance Manager tool (SCM tool), which provides a
centralized point of administration for viewing, exporting and updating security baselines (Microsoft
2015). Also, Windows Server 2012 Security Baseline is provided for both versions: Windows
Server 2012 and Windows Server 2012 R2 (Microsoft 2015). In addition, Microsoft provides the
Microsoft Security Assessment Tool 4.0, which measures the security approaches related to
people, process and technology. It is composed of various questions related to best practices like
ISO 17799 and NIST-800.x, as well as from the Microsoft’s Trustworthy Computing Group. After
finishing the assessment a report will be given with the results (Microsoft 2015). Moreover, the
administrator of a Microsoft Windows Server 2012 platform should consider the built-in technology
of the system to improve its security in the areas of authentication and identity, authorization and
isolation, data protection and secure networking. In a following part of this essay, it will be
discussed the important tool Active Directory Rights Management Services, which helps to
preserve authentication and identity, authorization and isolation and data protection (Microsoft
2015).
Secondly, it is recommended to consider the security approaches of Windows Server 2012 for
patch management, security auditing and various new features of the system. To begin, patch
management is necessary for every organization. Since software is developed by humans, it has
errors in its code, consequently the programs have vulnerabilities that can be exploited by hackers
(zero-day attacks) or in the best case can be found by researchers. This is why Microsoft releases
every period of time new security updates in order to countermeasure flaws of the system. In the
case of the server it is recommended to activate the Windows Server Update Services, but every
update must be first planned in order to mitigate the risk of a vulnerability. An administrator should
know that testing the update is crucial to make sure that it will not generate an incompatibility in the
production system. According to Shinder, Diogenes and Shinder (2013) the phases to deploy
security updates are: planning, availability for download, obtain the files, create update, test and
deploy in production. In addition, the auditing logs are necessary for the administrators to basically
monitoring activities and forensic analysis (Microsoft 2015). It is recommended to activate the
security auditing for critical information assets of the company. Finally the authors recommend to
review new security features of Windows Server 2012, such as Active Directory Federation
Services (ADFS), principle of isolation in virtualization, Dynamic Access Control (DAC), SMB 3
encryption, Windows Firewall with Advanced Security, Microsoft Security Essentials, IPsec, port
ACLs, bandwidth control, DHCP protection, router advertisement protection and good practices for
cloud security.
Thirdly, the authors presents the technology of Active Directory Right Management Services. To
begin, information is the most important asset of an organization and it is in general the most
important objective of a hacker. Windows Server 2012 provides an enhanced feature to protect
information disclosure called Active Directory Right Management Services (AD RMS). Moreover,
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
44
the administrator can perform all the best practices and system hardening, but the system could
still suffer an attack. Enabling AD RMS in Windows Server 2012 will help to prevent information
disclosure, even if the network, operating system and application have been compromised.
(Shinder, Diogenes and Shinder 2013). Furthermore, AD RMS applies a high level of access
control list to the document. WikiLeaks is an example of how private information of a company can
end in the wrong hands. In general the majority of information for WikiLeaks was accessed by
personal with not high privileges. This vulnerability in general takes place when the administrator
works with permissions in nested groups, which leads to misunderstanding with the real
permissions that are being established, so a better way to make sure that a user should be granted
to information access is the AD RMS. The AD RMS assigns permissions at a document level
instead in the file level, so when an administrator sets restrictions at the document level, all the
shared permissions at a file level will not be considered. Also the document can be forbidden to be
read out of the domain and the permissions can be granular, such as just read, but not copy or
modify. In addition, this feature can be applied in the cloud and will check access in Office,
Exchange and SharePoint (Shinder, Diogenes and Shinder 2013). Since AD RMS works in
cooperation with exchange, it can check if a user is allowed to send sensitive information, so if it is
permitted, when someone receives the message, the receptor can only open the document if first it
is available an AD RMS to approve it, then it will be allowed or denied. Consequently, if an internal
attacker finds the way to copy critical information of the organization to an external storage, he will
not be able to open it if he does not have the permission (Thomas 2010). In addition, the
deployment of AD RMS needs some general considerations. First it is needed one AD RMS per
forest in the Active Directory network and also it is recommended to have a cluster of this servers
to assure availability of the service. Also, the server should have a hardware dedicated only to AD
RMS, this is to prevent the mix of server roles. (Shinder, Diogenes and Shinder 2013).
5. Third Party, protection for Windows Server 2012
Firstly, the authors analysed that a suitable protection mechanism for Windows Server 2012 is an
Endpoint Protection Platform. To begin, the leaders in the market according to Gartner (2014) in
the Magic Quadrant for Endpoint Protection Platforms are McAfee, Kaspersky, Symantec, Trend
Micro and Sophos because of its completeness of vision and the ability to execute as it is shown in
Figure 2. McAfee and Kaspersky give a good approach to Endpoint Security but they do not have
a product directly oriented to server security. They provide a software solution for business or
enterprises in general (McAfee 2015; Kaspersky 2015). On the other hand, Symantec, Trend Micro
and Sophos provide a solution to secure servers, but each one has a different approach to secure
the IT environment. Trend Micro is very strong in the field of cloud and virtualization security with
its product Cloud and data center security (Trend Micro 2015). Sophos with its product Server
Protection is adequate for malware and virtual environments, but it is not cloud security oriented
(Sophos 2015). Symantec with its product Critical System Protection provides a holistic analysis
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
45
including protection to virtual systems, cloud, HIPS/HIDS and Active Directory integration
(Symantec 2015). Moreover, in the report of Gartner 2013 on March 27th of 2013 Symantec got
the best position in the Magic Quadrant for Endpoint Protection Platforms (Gartner 2013) and for
the report on January 8th of 2014 Symantec maintains as one of the leaders in the Magic Quadrant
for Endpoint Protection Platforms. Consequently, the authors has chosen Symantec for its analysis
because of the advantages that the product provides.
Figure 2. Leaders in the Gartner Magic Quadrant for Endpoint Protection Platforms (Gartner 2014).
Secondly, the Symantec Critical System Protection is a server oriented solution. To begin,
Symantec will allow to maintain a centralized security policy administration since the solution
integrates with the Active Directory of Windows Server 2012 (Symantec 2015). In addition,
Symantec provides technology for security prevention. The first point of security will be the
HIDS/HIPS included in the solution. Also, it is provided a memory control to prevent attacks, which
will protect from possible vulnerabilities of the system. A host firewall is also included to control
network connections to the server. Finally, a technology called Process Access Control provides
control over running process, which will allow to do an in deep intrusion prevention action
(Symantec 2015). In addition, Symantec offers features to perform countermeasures under
attacks. In the case of an attack, it provides prevention policies, which will use premade functions
and will work in coordination with the HIDS and HIPS policies. Also, it is provided a lock down
configuration in order to preserve the server's security in terms of confidentiality, integrity and
availability.
Thirdly, Symantec solution protects virtual environments, manage patching and support security
compliances. To begin, the solution provides good practices for vSphere hardening, which is the
main administration structure of a virtual system using VMware. Consequently, it provides security
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
46
at the levels of server management (VMware vCenter™ management server protection),
hypervisor (VMware ESX® and VMware ESXi™ hypervisor protection), which runs the virtual
servers and guests (VMware ESX and ESXi guest protection) (Symantec 2015). In addition,
patching helps to countermeasure the vulnerabilities of the systems. If the software does not have
support anymore it will be a challenge for the IT administrator to protect it and if the applications do
have support, the system will be vulnerable during the time needed by the vendor to generate the
patch. Symantec gives a solution for these cases providing system hardening, locking of the
configuration, and restrictions of system’s behaviour. Finally, Symantec helps to check the state of
a policy compliance, such as PCI. It monitors in real time the server activity in order to verify,
collect logs and prevent policy violations (Symantec 2015).
Finally, even though Symantec is a leader in Endpoint Security Platforms, it presents some
opportunities for improvements (Gartner 2014). To begin, Symantec may improve in developing
new features like forensic discovering capabilities for better understanding of what happened after
an attack and implementing a network-based sandbox to analyse suspicious code and report. In
addition, Symantec may improve in current capabilities such us weak proactive security
assessment. This in order to inform to the IT security professional ahead of time of possible
problems that the system may have. Also, the Control Compliance Suite is not part of the main
console of Critical System Protection. This makes it difficult for the administrator because he has to
consolidate information from both consoles. Finally, the set of policies for encryption in removable
devices is not easy to understand. It is preferred that the IT administrator has a tool which provides
an easy and clear configuration in order to secure the systems on the fly and correctly. Table 3
shows a summary of the characteristics of the Symantec security solution for Windows Server
2012.
6. Further research
The further research work suggested by the authors recommends to use automatic tools of pen
testing in order to confirm that after all the hardening and security of the base system Windows
Server 2012, the vulnerabilities does not exist anymore or are mitigated.
7. Conclusions
The most common vulnerability or Common Weakness Enumeration (CWE) for Windows Server
2012 is the Permissions, Privileges and Access Control represented by the 25% of the total of
vulnerabilities officially recognized and each year it has been increasing its number of
vulnerabilities related. The vulnerability is dangerous since it exploits the bad management of
access restrictions of the operating system, which will provoke a privilege escalation and enable
the attacker to execute malicious code on the victim.
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
47
Table 3. Symantec Critical System Protection (Symantec 2015).
Characteristics
Description
Protects virtual environments:
Virtual Systems
Cloud
Security Features
-
System hardening
Locking of the configuration
Restrictions of system’s
behaviour
Cloud security oriented
Security prevention:
HIPS/HIDS
Active Directory
integration
-
Memory control to prevent
attacks
Host firewall
Process Access Control
Premade functions
Lock down configuration
Capable of using Active Directory
configuration policies.
Forensic discovering capabilities.
Opportunities for
improvements
Weak proactive security assessment.
Consolidate consoles of the solution.
Unfriendly policies for encryption in removable devices.
The second most common vulnerability for Windows Server 2012 are the Buffer Errors type. This
CWE as the Permissions, Privileges and Access Control let the hacker to gain access to perform a
remote code execution, but the difference is that Buffer Errors have the flaw of not managing
correctly objects in memory provoking the attacker to execute his code.
The third most common vulnerability is resource management errors, which the same as Common
Weakness Enumeration and Buffer Errors enables the attacker to perform a remote code
execution, but this vulnerability exploits the lack of control in manipulating disk, memory or CPU of
the server.
The forth most common vulnerability is code injection, which is one of the most dangerous since it
let the attacker to execute directly malicious code. The first three most common vulnerabilities
exploit different flaws looking for a remote code execution.
The fifth most common vulnerability is related to input validation problems, which exploits data that
is not being checked or sanitized. This vulnerability as the other four enable the attacker to execute
malicious code also denial of service and man in the middle attacks.
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
48
The sixth most common vulnerability is leak disclosure, which enables the attacker to obtain
sensitive information of the system. This vulnerability does not focus on the remote code execution
of malicious code.
The seventh most common vulnerability is the CWE numeric errors, which allows to perform a
remote code execution like the first five most common vulnerabilities, gain privileges and denial of
service. This vulnerability is exploited by the attacker when the system gets errors when handling
numbers.
The eight most common vulnerability presents instability problems of the state of a resource and
enables gain privileges to the attacker.
The ninth most common vulnerability is the CWE that does not have a specific classification
because its vulnerabilities does not provide enough information to be part of a CWE group. This
vulnerability cannot be classified to have a certain type of attack vectors.
The tenth most common vulnerability is the path traversal which provokes denial of service to the
applications running over Windows Server 2012.
8. Recommendations
The security vulnerabilities can be counter measured by applying the updates released by
Microsoft, but it is recommended to use a change management policy. It is not a good practice to
have automatic updates in the server since they may produce an incompatibility with other
software of the system. Also users are suggested to have only the privileges that they require and
memory-protection schemes, like non-executable stack/heap configurations.
The security approaches recommended by the authors suggest to implement security baseline
from Microsoft to check the system based on good security practices, such as ISO 17799 and
NIST-800.x. Also, it is recommended to implement the enhanced feature of Microsoft Windows
Server 2012 to protect information disclosure called Active Directory Right Management Services
(AD RMS). This feature will protect the most important asset of the company, which is the
information. It will protect the system even though the base system is compromised since AD RMS
applies a high level of access control list to the document.
The third party protection solution for Windows Server 2012 recommended by the authors is
Symantec with its product Critical System Protection due to holistic analysis including protection to
virtual systems, cloud, HIPS/HIDS and Active Directory integration. This vendor offers a server
oriented solution, which work in a proactive way having countermeasures under attack and lock
down configuration in order to preserve the confidentiality, integrity and availability. Also, Symantec
offers a hardening feature for virtual systems using VMware and in the scenario that a system is
not supported anymore, such as Windows Xp, Symantec provides a solution to restrict the
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
49
behaviour of the system in case of a known vulnerability. Finally, the authors highlight that the
Symantec solution even though is the recommended third party vendor, it has to improve in the
following aspects: forensic discovering capabilities, network-based sandbox, proactive security
assessment, consolidate consoles of the solution.
References:
CVE
(2015).
CVE
List
Master
Copy.
[online].
[online].
Last
Last
accessed
16
March
2015
at:
http://cve.mitre.org/cve/cve.html
CWE
(2015).
CWE
List.
accessed
16
March
2015
at:
http://cwe.mitre.org/data/index.html
GARTNER (2013). Magic Quadrant for Endpoint Protection Platforms. [online]. Last accessed 21
March
2015
at:
http://www.gartner.com/technology/reprints.do?id=1-
1DFHJZW&ct=130102&st=sb
GARTNER (2014). Magic Quadrant for Endpoint Protection Platforms. [online]. Last accessed 21
March
2015
at:
http://www.gartner.com/technology/reprints.do?id=1-
1P53WTD&ct=140108&st=sb
KASPERSKY (2015). Endpoint Security for Business Core. [online]. Last accessed 21 March 2015
at: http://www.kaspersky.co.uk/business-security/endpoint-core#tab=frame-2
MCAFEE (2015). McAfee Complete Endpoint Protection — Enterprise. [online]. Last accessed 21
March
2015
at:
http://www.mcafee.com/us/products/complete-endpoint-protection-
enterprise.aspx#vt=vtab-Benefits
MICROSOFT (2015). Microsoft Security Bulletin. [online]. Last accessed 27 July 2015 at:
https://technet.microsoft.com/en-us/security/bulletin/dn602597.aspx
MICROSOFT (2015). Windows Server Blog. [online]. Last accessed 15 March 2015 at:
http://blogs.technet.com/b/windowsserver/archive/2012/08/01/windows-server-2012released-to-manufacturing.aspx
MICROSOFT (2015). Windows Develop Center – Desktop. [online]. Last accessed 16 March 2015
at: http://msdn.microsoft.com/en-us/library/windows/desktop/bb775665(v=vs.85).aspx
MICROSOFT (2015). Security TechCenter. [online]. Last accessed 16 March 2015 at:
http://technet.microsoft.com/en-us/security/bulletin/ms13-083
MICROSOFT
(2015).
Download
Center.
[online].
Last
accessed
http://www.microsoft.com/en-us/download/details.aspx?id=40408
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
16
March
2015 at:
50
MICROSOFT (2015). Windows Server 2012 Security Baseline. [online]. Last accessed 17 March
2015 at: http://technet.microsoft.com/en-us/library/jj898542.aspx
MICROSOFT (2015). Microsoft Security Assessment Tool 4.0. [online]. Last accessed 17 March
2015 at: http://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=12273
MICROSOFT (2015). Secure Windows Server 2012 R2 and Windows Server 2012. [online]. Last
accessed 17 March 2015 at: http://technet.microsoft.com/en-us/library/hh831360.aspx
MICROSOFT (2015). Security Auditing Overview. [online]. Last accessed 17 March 2015 at:
http://technet.microsoft.com/en-us/library/dn319078.aspx
NIST (2015). National Vulnerability Database. [online]. Last accessed 16 April 2015 at:
http://web.nvd.nist.gov/view/vuln/search-advanced
OFFENSIVE SECURITY (2015). Exploit Database. [online]. Last accessed 16 March 2015 at:
http://www.exploit-db.com/search/
OPEN VULNERABILITY AND ASSESSMENT LANGUAGE. (2015). Oval Repository. [online]. Last
accessed 16 March 2015 at: http://oval.mitre.org/repository/
SHINDER, Thomas W., DIOGENES, Yuri and SHINDER, Debra Littlejohn (2013). Windows server
2012 security from end to edge and beyond: Architecting, designing, planning, and deploying
windows
server
2012
security
solutions.
[online].
Elsevier.
at:
http://shu.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwY2AwNtIz0EUrE9KMLJIskyy
SjM0Tk02SDQ0SLUySQKdppSVbWpqkgC9VQBxjgFTAuwkxMKXmiTLIuLmGOHvoFmeUxk
OHNeKTgG1pYG0FrPHFGFiAXeVUAPLTHTc.
SOPHOS
(2015).
Server
Protection.
[online].
Last
accessed
21
March
2015
at:
http://www.sophos.com/en-us/medialibrary/PDFs/factsheets/sophos-server-protectiondsna.pdf
SYMANTEC (2015). Symantec Critical System Protection. [online]. Last accessed 21 March 2015
at: http://www.symantec.com/critical-system-protection
SYMANTEC (2015). Data Sheet: Endpoint Security. [online]. Last accessed 21 March 2015
at:http://www.symantec.com/content/en/us/enterprise/fact_sheets/bcritical_system_protection_ds_21197836-3_1212.en-us.pdf
SYMANTEC CORPORATION (2015). Security Response. [online]. Last accessed 21 March 2015
at: http://www.symantec.com/security_response/vulnerability.jsp?bid=62801
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
51
THOMAS, Orin. (2010). How AD-RMS can stop your organization’s secrets ending up on
Wikileaks. [online]. Last accessed 16 March 2015 at: http://windowsitpro.com/blog/how-adrms-can-stop-your-organization-s-secrets-ending-wikileaks
TREND MICRO (2015). Cloud and data center security. [online]. Last accessed 21 March 2015 at:
http://www.trendmicro.co.uk/enterprise/cloud-data-center-security/
US-CERT (2015). Microsoft Updates for Multiple Vulnerabilities. [online]. Last accessed 16 March
2015 at: http://www.us-cert.gov/ncas/alerts/TA13-288A
Enfoque UTE, V.6-N.3, Sep.2015, pp.36 - 51
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
http://ingenieria.ute.edu.ec/enfoqueute/
ISSN: 1390‐6542
Recibido (Received): 2015/07/10
Aceptado (Accepted): 2015/09/15
CC BY-NC-ND 3.0
Aplicación de quitosano como biocoagulante en aguas
residuales contaminadas con hidrocarburos
(Chitosan application as a biocoagulant in wastewater
contaminated with hydrocarbons)
Juan M. Álava1
Resumen:
La contaminación del ambiente en el Ecuador, provocada por la producción, transporte y
comercialización de hidrocarburos, requiere mayor investigación en cuanto a nuevas
alternativas de tratamiento que utilicen sustancias biodegradables. En este estudio, se utilizó el
exoesqueleto de la cola del camarón (Litopenaeus vannamei) para obtener quitosano y luego
aplicarlo como biocoagulante a una muestra de agua residual contaminada con residuos
hidrocarburíferos. El quitosano producido fue caracterizado por titulación potenciométrica,
resultando en un grado de desacetilación (%DD) de 87.18%–93.72% y por viscosimetría
5
5
intrínseca, logrando un peso molecular promedio (g/mol) de 5.2x10 –5.4x10 . La aplicación del
quitosano se la realizó en un test de jarras, para lo cual se planteó un diseño factorial
k
completamente aleatorio 2 , resultando en un efecto estadísticamente significativo para todos
los factores estudiados, esto es, pH (inicial), tipo de quitosano y método de agitación, utilizando
como variable de respuesta al porcentaje de remoción de turbidez. Como resultado, un pH de
5.5, una dosis de 2 mg(quitosano)/L(muestra) y método de agitación rápido fueron aplicados a
una muestra contaminada, disminuyendo la turbidez en 98.19%, la demanda química de
oxígeno en 78.17%, el color en un 91.45% e hidrocarburos totales de petróleo en 99.09%.
Palabras clave: Test de jarras; exoesqueleto de camarón; clarificación; desacetilación;
viscosimetría intrínseca.
Abstract:
The environment contamination in Ecuador, done by the production, transport and
commercialization of hydrocarbons, requires further research regarding new treatment
alternatives that use biodegradable substances. In this study, abdominal shrimp shell waste,
Litopenaeus vannamei was used to obtain chitosan and then apply it as a biocoagulant to a
wastewater sample contaminated with hydrocarbon products. The produced chitosan was
characterised by potentiometric titration, resulting in a deacetylation degree (%DD) of 87.18%–
5
93.72% and by intrinsic viscosimetry, obtaining an average molecular weight (g/mol) of 5.2x10
5
–5.4x10 . The application of chitosan was done in a jar test, for which a completely randomised
k
factorial design 2 was set, resulting in an evident statistically significant effect for all the factor
studied, that is, pH (Initial), chitosan type and agitation method, using the turbidity percentage
removal as the response variable. As a result, a pH of 5.5, a 2 mg(Chitosan)/L(sample) and a
fast agitation method were applied to a contaminated sample reducing the turbidity in 98.19%,
the oxygen chemical demand in 78.17%, color in 91.45% and total petroleum hydrocarbon in
99.09%.
Keywords: Jar test; shrimp shell; clarification; deacetylation; intrinsic viscosimetry.
1
Universidad Técnica de Manabí, Portoviejo – Ecuador ([email protected])
53
1. Introducción
La contaminación del suelo y principalmente del agua a nivel global por hidrocarburos ha dejado
consecuencias negativas para el medioambiente. En ciertos casos de derrames de hidrocarburos,
como en West Falmouth, los sedimentos muestran que luego de más de 30 años la presencia de
hidrocarburos continúa y continuará indefinidamente (Reddy et al., 2002). El Ecuador, siendo un
país petrolero no está alejado de esta realidad y varios incidentes han sido reportados en las
diferentes etapas de procesamiento y comercialización del mismo, en donde se muestra el nivel
de contaminación que ha dejado como por ejemplo en la costa Ecuatoriana (5-50 mg/l TPH) y que
en algunos casos se mantiene presente (Da Ros, 1995). En base a esta problemática, a nivel
mundial se han desarrollado mecanismos de remediación de hidrocarburos tanto físicos, químicos
electroquímicos, bilógicos, entre otros; siendo el uso de biocoagulantes como el quitosano una
alternativa efectiva para remover hidrocarburos y demás contaminantes en los cuerpos de agua
producto de la actividad petrolera y diferentes actividades industriales, debido a sus características
biodegradables, no tóxicas y biocompatibles (Rodríguez, 2011); (Caldera et al., 2009); (Renault et
al., 2009); (Abu Hassan, 2009); (Sastre, Ruiz, Guibal, & Szygula, 2010).
Además del valor que representa el camarón como alimento, el residuo del camarón también
contiene, entre otros componentes, alrededor de 52% de proteína, 24% de minerales y 18% de
quitina, los cuales han sido desechados en el Ecuador, en su mayoría sin darle valor agregado. La
quitina es el elemento más abundante en la naturaleza después de la celulosa y el elemento de
sostén de los invertebrados y ha sido investigada por más de un siglo, obteniéndose muchos usos
que le dan valor agregado como la obtención de quitosano por desacetilación de la quitina (Agulló
et al., 2004). En este sentido, el Ecuador es uno de los principales productores de camarón en el
mundo ocupando el séptimo lugar y a nivel regional es el primero (Varela, 2011), representando el
25.19% de toda América Latina. Adicionalmente, para el 2013 existió una evolución destacada de
las exportaciones con un aumento del 25.63%, pasando de $443,3 millones a 565,8 millones
(Banco Central del Ecuador, 2014).
El objetivo de este estudio es poder determinar el efecto que tiene el quitosano, pH y método de
agitación en el proceso de clarificación de aguas contaminadas con hidrocarburos, además de
demostrar la capacidad de remoción del quitosano como agente biocoagulante bajo las mejores
condiciones de aplicación a una muestra con altos niveles de contaminación.
2. Metodología
2.1. Obtención de quitosano
En el proceso de obtención se utilizó el residuo del empacado de camarón facilitado por la
empresa Dufer ubicada en Bahía de Caráquez en la costa Ecuatoriana. El exoesqueleto de cola
de camarón fue procesado de acuerdo al diagrama de la Figura 1. con el objeto de remover
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
54
proteínas, minerales, pigmentos y demás impurezas por medios químicos para obtener como
producto final la quitina, mediante el método propuesto por Pinelli Saavedra, Toledo Guillen,
Esquerra Brauer, Luviano Silva, and Higuera Ciapara (1998). Seguidamente, se utilizaron etapas
sucesivas para desacetilar la quitina con NaOH 50% p/p
90˚C por 1.5 h a una proporción
solvente:soluto de 50:1 v/p en agitación constante de acuerdo a Yaghobi and Mirzadeh (2004) en
presencia de aire atmosférico.
Figura 1. Proceso químico de obtención de quitina y quitosano utilizando etapas sucesivas.
2.2. Caracterización de quitosano
2.2.1. Peso molecular promedio (M)
Se utilizó el método viscosimétrico, en donde se empleó un viscosímetro capilar Cannon-Fenske
150 Y137 (ASTM D445) con baño termostático a 25 ˚C. En el viscosímetro se corrieron las
muestras de quitosano disueltas en ácido acético 0,1 M y cloruro de sodio 0.2 M con diferentes
concentraciones, determinando el tiempo de caída de las diluciones de quitosano (t) y una de
referencia con nula concentración (to) (Paz et al., 2013) para determinar los parámetros
viscosimétricos como se establece en la Tabla 1.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
55
Tabla 1. Datos viscosimétricos utilizados en la determinación del peso molecular promedio por viscosimetría
intrínseca.
Nombre común
Símbolo y ecuación
Viscosidad relativa
r =  / 0 = t / t0
Viscosidad específica sp = r – 1 = ( - 0) / 0 = t - t0 / t0
Viscosidad reducida
red = sp / C
Viscosidad inherente
red = (lnr) / C
Viscosidad intrínseca
[]= (sp / C)C=0 = [(lnred) / C] C=0
Los parámetros citados se emplearon para la determinación de la viscosidad intrínseca [ ]
mediante el método gráfico, empleando la ecuación de Huggings (Ec. 1).
sp/C = [] + K[] C
2
Ec. 1
Esta fórmula relaciona la viscosidad reducida (sp / C) con la concentración del polímero y se utiliza
para determinar el peso molecular promedio (M) de acuerdo a la ecuación de Mark-HouwinkSakurada (Ec. 2).
 = KM
a
Ec. 2
En donde las constantes de la ecuación para tal medio son: K=1.81x10-3 cm3g y  = 0.93 de
acuerdo a Roberts and Domszy (1982)
2.2.2. Grado de desacetilación %DD
Para el ensayo se disolvieron 0.2 g de quitosano seco en 20 cm3 de ácido clorhídrico 0.1 M y 25
cm3 de agua desionizada, se los dejó en agitación continua por 30 minutos y luego se agregó 25
cm3 más de agua y se agitó por 30 minutos más. Una vez que el quitosano se disolvió
completamente se procedió a titular la solución con hidróxido de sodio, con una concentración de
0.1 M, utilizando una micropipeta Eppendorf (1000 l) añadiendo 500 l de NaOH cada vez y
anotando el cambio en el pH con un potenciómetro con electrodo de vidrio marca OAKTON pH
700. Una vez alcanzado un pH de alrededor de 11, se tabularon los resultados en una hoja de
cálculo para ver el comportamiento del pH y su derivada en función del volumen de NaOH
utilizado; mediante este gráfico se determinaron los puntos de inflexión (V1 y V2) (CzechowskaBiskup, Jarosińska, Rokita, Ulański, & Rosiak, 2012). El grado de desacetilación %DD se calculó
usando la fórmula:
%DD = 2.03 . [(V1 – V2) / (m + 0.0042 . (V2 –V1)]
Ec. 3
En donde:
m = masa de la muestra (g)
V1, V2 = Volúmenes de la solución de hidróxido de sodio 0.1 mol/dm3 correspondientes a los
puntos de deflexión.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
56
2.03 = Es el coeficiente resultante del peso molecular de la unidad de monómero de la quitina.
0.0042 = Coeficiente resultante de la diferencia entre el peso molecular de la unidades de los
monómeros de quitina y quitosano.
2.3. Caracterización del agua contaminada con derivados petroleros
Las muestras de agua contaminada fueron proporcionadas por una estación de servicio de la
ciudad de Portoviejo en Manabí. Para el diseño experimental se recogió muestra suficiente para
llevar a cabo los 32 experimentos. Las muestras se tomaron de la primera de las tres trampas de
grasa que recolecta los residuos líquidos resultantes del expendio de los derivados del petróleo
antes de ser eliminada por los gestores ambientales. En lo que respecta al procedimiento de toma
de muestras, para realizar análisis de TPH en el laboratorio acreditado, se siguió la norma NTE
INEN 2 169:98 (Agua, calidad de agua, muestreo, manejo y conservación de muestras).
Adicionalmente, en el laboratorio de Aguas y Medio Ambiente de la Universidad Técnica de
Manabí se realizaron las pruebas de: turbidez (NTU) en un turbidímetro marca HACH, demanda
química de oxígeno DQO (mg/l)(Método del dicromato de potasio) y color (Unidades PtCo)(Método estándar Platino-Cobalto) en un espectrofotómetro UV-Vis marca HACH 2700.
Adicionalmente, se procedió a enviar muestra suficiente al laboratorio acreditado Grupo Químico
Marcos para la determinación de Hidrocarburos Totales de Petróleo, Cromo, Vanadio, Bario y
Plomo.
2.4. Aplicación de quitosano en la muestra contaminada
2.4.1. Preparación de soluciones de quitosano
El quitosano obtenido fue disuelto en ácido acético 0.1M en agitación constante por 24h a
temperatura ambiente para obtener una solución de quitosano al 0,5% aproximadamente, la cual
fue filtrada con el propósito de eliminar cualquier material insoluble (Paz et al., 2012). El quitosano
se aplicó con micropipetas marca Eppendorf (1000 l, 200 l y 20 l) en la prueba de jarras.
2.4.2. Proceso de clarificación de muestras contaminadas
Este proceso consta de dos etapas: primero, se planteó un diseño experimental (DOE) utilizando
una muestra (Mc1) con el objeto de determinar las variables que influyen en el proceso de
clarificación y a su vez establecer un modelo de comportamiento estadístico de las variables
evaluadas en función de el porcentaje de remoción de turbiedad. Seguidamente, estos resultados
se emplearon para clarificar una muestra con altos niveles de contaminación (Mc2) la cual fue
caracterizada antes y después del tratamiento en turbiedad, DQO, color, TPH y metales pesados.
2.4.3.1. Planteamiento del diseño experimental
Se planteó un diseño experimental completo, aleatorio, de dos niveles (Tabla 2), con el objeto de
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
57
evaluar el efecto que tienen: el pH de la muestra, el tipo de quitosano empleado y el método de
agitación del test de jarras en el proceso de clarificación de la muestra utilizada. Este proceso se
lo realizó en un test de jarras, teniendo como variable de respuesta al porcentaje de remoción de
turbiedad para un volumen de muestra de 1 L.
Tabla 2. Factores evaluados para el proceso de clarificación de la muestra Mc1.
Factores
Nivel Nivel Réplicas
Tratamientos
Variable de respuesta
+
Totales
pH (X1)
5.5
7.5
3
32
Porcentaje de remoción
de turbidez %
Tipo de Quitosano (X2)
Q1
Q2
Método de agitación (X3)
M1
M2
Tanto el diseño experimental como el análisis estadístico fueron desarrollados en el paquete
estadístico JMP (9.0.1; 2010 SAS Institute Inc.). En la Tabla 3 se muestra el patrón de diseño a
seguir, establecido por el programa con los respectivos niveles de variación.
Tabla 3. Patrón de diseño experimental, evaluación de factores en el proceso de clarificación
Patrón de
Tipo de Quitosano
Método de Agitación
pH (X1)
tratamiento
(X2)
(X3)
+11
7.5
Q1
M1
+12
7.5
Q1
M2
+21
7.5
Q2
M1
+22
7.5
Q2
M2
-11
5.5
Q1
M1
-12
5.5
Q1
M2
-21
5.5
Q2
M1
-22
5.5
Q2
M2
Donde el método de agitación M1 se dio en las etapas rápida a 250 rpm por 5 min. y lenta a 40
rpm por 20 min. con un tiempo de reposo de 30 min. Mientras que el método de agitación M2 tuvo
una etapa rápida a 150 rpm por 7 min. y lenta a 25 rpm por 30 min. con un tiempo de reposo de 30
min.
2.4.3.2. Determinación de la dosis óptima de quitosano
Se utilizó un equipo de Prueba de Jarras marca Phipps & Bird de cuatro posiciones para llevar a
cabo el proceso de clarificación de la muestra contaminada. Inicialmente, se probaron
concentraciones de 0.2, 0.4, 0.6 y 0.8 mg/L, para la muestra Mc1, obteniéndose el mejor resultado
para la dosis de 0.8 mg/L. Mientras que para la muestra Mc2 las dosis probadas fueron de 0.5, 1,
1.5 y 2 mg/L resultando la dosis de 2 mg/L la mejor dosis.
2.4.3.3. Tratamiento de agua residual contaminada con derivados del petróleo
Se caracterizó la muestra Mc2 antes y después del tratamiento en el laboratorio de Aguas y
Medioambiente de la UTM y enviando muestras a el laboratorio acreditado Grupo Químico
Marcos. Utilizando los resultados del análisis estadístico, se plantearon las mejores condiciones
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
58
para el proceso de clarificación de esta muestra, es decir, pH 5.5, quitosano Q2 y método de
agitación M1. El proceso se lo realizó en el test de jarras por triplicado utilizando un volumen de 2L
y una concentración de quitosano de 2 mg/L como se explica en la Figura 2.
A
B
C
D
Figura 2. Proceso de clarificación de la muestra Mc2 contaminada con derivados del petróleo. En donde A
revela el estado de la muestra desde la fuente de origen, B el nivel cualitativo de contaminación antes del
tratamiento con quitosano, C clarificación de la muestra contaminada después del tratamiento y D se
observan los flóculos flotantes formados en el proceso de clarificación.
3. Resultados
3.1. Rendimientos en la obtención de quitosano
La Figura 3 representa las cantidades promedio extraídas en masa de proteínas 53.1% y
minerales 24.5% además de destacar el contenido de quitina 21.1% y de quitosano 16.1% con
respecto a la materia prima utilizada y en comparación con lo establecido por Agulló et al. (2004).
Figura 3. Contenido másico porcentual de proteínas, minerales, quitina y quitosano presentes en la muestra
de cáscara de cola de camarón estudiada (base seca).
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
59
3.2. Caracterización del quitosano obtenido
En la Tabla 4 se muestran los datos obtenidos para calcular el porcentaje de desacetilación
(%DD) por el método de titulación potenciométrica y el peso molecular promedio (Mv) por
viscosimetría intrínseca, para los dos tipos de quitosano Q1 y Q2.
Tabla 4. Datos de ensayos de caracterización del quitosano %DD y Mv.
Ensayo
Unidades
Q1
Q2
%DD
87.18%
93.72%
Masa de quitosano
g
0.2004
0.2008
Volumen de inflección V1
ml
10
10
ml
20.5
21.5
Mv (g/mol)
5.2E+05
5.4E+05
ml/g
377.9
391.25
58818
56392
0.4
0.3
0.9813
0.9748
Titulación Potenciométrica
1
Volumen de inflección V2
Número de Viscosidad Limitante (LVN)
Viscosidad Intrínseca
2
Valor de la pendiente
Constante K
R
1
2
2
Los reactivos utilizados fueron de grado analítico marca Merck con autorización de compra por parte del CONSEP.
Todas las soluciones utilizadas fueron estandarizadas con sustancias patrones por triplicado.
3.2. Tratamiento de la muestra contaminada con quitosano
3.2.1. Remoción de turbidez
Los resultados del diseño experimental se presentan en la Figura 4, en donde la turbiedad final
está en NTU para cada patrón de tratamiento con sus respectivas réplicas, para una muestra Mc1
con 80.3 NTU de turbidez.
Figura 4. Turbidez final y dispersión de los resultados en función del patrón de tratamiento, destacando
(-11) con menor turbidez final donde “–“ es (pH 5.5), “1” (Q1) y “1” (M1).
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
60
3.2.1. Ajuste por mínimos cuadrados
El modelo de comportamiento de las variables estudiadas (Figura 5) presenta una correlación
lineal con un R2=0.94 y un factor de probabilidad de P<0.0001 lo que indica que el modelo se
ajusta de buena manera y que por lo menos existe un factor de regresión estadísticamente
significante para dicho modelo.
Figura 5. Ajuste por mínimos cuadrados para datos reales vs. Modelado para cada patrón de tratamiento.
Seguidamente, en la Tabla 5 se presenta la estimación de parámetros de probabilidad para cada
uno de los factores estudiados y sus principales interacciones para los cuales se puede notar un
factor de probabilidad P<0.0001 principalmente para el pH, quitosano, y uno de P<0.0032 para el
método de agitación, lo que indica el rechazo de la hipótesis nula y la aceptación de que existe
una diferencia estadísticamente significativa entre los niveles de los factores estudiados ya que
todos los valores se encuentran por debajo del P<0.05.
Tabla 5. Estimación de parámetros de modelado con análisis de probabilidad
Término
Intersección
Estimado Std Error
t Ratio
Prob>|t|
0.9466741 0.0021990 430.4200000 <.0001*
Ph (5.5 – 7.5)
-0.035837 0.0021990
-16.29
<.0001*
Quitosano [Q1]
-0.013628 0.0021990
-6.2
<.0001*
Método de agitación [M1]
0.0071456 0.0021990
3.25
0.0032*
pH*Quitosano [Q1]
-0.012402 0.0021990
-5.64
<.0001*
Quitosano [Q1]*Método de agitación 0.0128691 0.0021990
[M1]
5.85
<.0001*
*Probabilidad del parámetro de tener efecto nulo o cero. Se rechaza la hipótesis nula y se acepta la
alternativa.
3.2.1. Tratamiento de muestra contaminada Mc2
Se probó el quitosano en una muestra, con niveles altos de contaminación Mc2 (proporcionada
por una estación de servicio para fines de la investigación) y con un volumen mayor (2 L) que el
utilizado en el diseño experimental (1 L). Los análisis realizados a la muestra antes y después del
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
61
tratamiento de clarificación con quitosano se presentan en la Tabla 6, en donde se muestra el
contenido indetectable de Bario, Cromo, Plomo, Vanadio, de acuerdo al laboratorio acreditado.
Tabla 6. Porcentaje de remoción de contaminantes.
Parámetro*
Valor Inicial
Valor Final
% Removido
Turbidez (NTU)
216
3.92
98.19%
DQO (mg/L)
568
124
78.17%
pH
8.17
5.51
Adj.
Color (Units)
655
56
91.45%
TPH (mg/L)
416
3.80
99.09%
Bario (mg/L)
<0.1
-
-
Cromo (mg/L)
<0.01
-
-
Plomo (mg/L)
<0.05
-
-
Vanadio (mg/L)
<0.05
-
-
1
*
Análisis realizados en la Universidad Técnica de Manabí y por el laboratorio Grupo Químico
Marcos.
1
El pH fue ajustado para lograr los mayores porcentajes de remoción de turbidez de acuerdo
al modelo estadístico obtenido.
A
B
Figura 6. Test de jarras aplicando ph 5.5, quitosano Q1 y método de agitación M1 para la muestra Mc2.
A Muestra contaminada con derivados petroleros.
B Muestra tratada con quitosano usando el modelo estadístico.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
62
3. Discusión
Con respecto a la obtención del quitosano, en la Figura 3 se presentan los valores promedio de
componentes existentes en la muestra de exoesqueleto de camarón estudiada; ya que en el
proceso de desproteinización se removió un 50% de materia para Q1 y 56% para Q2; mientras
que la pérdida de masa desde la desproteinización hasta terminar la desmineralización fue de
26% para Q1 y 23 % para Q2; lo que deja como rendimiento en peso para la quitina 23% para Q1
y 19% para Q2. Finalmente, las etapas empleadas en el proceso de desacetilación arrojaron un
valor de pérdida de masa de alrededor de 5% por etapa para Q1, mientras que para Q2 fue de
alrededor de 1.5% por etapa, dejando como resultado un rendimiento de quitosano en relación a
la materia prima de 15.96% para Q1 y de 16.31% para Q2 (base seca) lo que concuerda con
estudios relacionados al contenido típico de componentes de la cáscara del camarón (Agulló et al.,
2004).
Las características principales del quitosano, como son el grado de desacetilación %DD (87% Q1
y 94% Q2) y el peso molecular promedio (5.2x105 Q1 y 5.4x105 Q2), presentaron valores
característicos de quitosanos comercializados en la actualidad, lo que permite establecer su
calidad. Adicionalmente, el proceso utilizado para obtener estos dos tipos de quitosano variaron
únicamente en la proporción solvente:soluto en cada proceso establecido en la Figura 1, valor que
fue mayor para el quitosano Q2 que para Q1. En consecuencia, al usar una mayor proporción
solvente:soluto, se utilizaron menos etapas de desacetilación para Q2 en comparación con Q1.
El modelo de correlación estadístico, presentado en la Figura 5 y detallado en la Tabla 5, presenta
evidencia estadísticamente significativa del efecto que tienen los factores estudiados, esto es, pH
(P<0.0001), tipo de quitosano (P<0.0001) y método de agitación (P<0.0032), en la variable de
respuesta, que es el porcentaje de remoción de turbidez. Seguidamente, con el uso de los datos
estadísticos se trató la muestra contaminada Mc2 y se observó la formación de flóculos
aglomerados en una fase liviana, atribuyendo este comportamiento a la gran cantidad de
hidrocarburos (TPH) presentes en la muestra como se muestra en la imagen D de la Figura 2 y en
la imagen B de la Figura 6. Finalmente, se obtuvo una remoción positiva para la turbidez 98.19%,
DQO 78.17%, color 91.45%, TPH 99.09%, existiendo una presencia no detectable, por los equipos
acreditados del Grupo Químico Marcos, de Bario, Cromo, Plomo y Vanadio (Tabla 6).
4. Conclusiones y Recomendaciones
El residuo del empacado de camarón para exportación, así como el proveniente de cualquier otra
actividad relacionada, puede ser utilizado en la obtención de quitina y quitosano de muy buena
calidad como se presentó en este estudio, dándole un valor comercial a un residuo que constituye
un agente contaminante en las zonas de producción del crustáceo en nuestro país.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
63
La metodología utilizada para el uso de quitosano como biocoagulante en la remoción de
contaminates de aguas residuales de la comercialización de hidrocarburos, resultó en la
determinación del efecto estadístico que tienen los factores estudiados y como consecuencia un
modelo estadístico que permitió conocer la mejor combinación aplicación de estos factores para
alcanzar la mayor remoción de turbiedad (98%) posible y consigo la remoción de Hidrocarburos
Totales de Petróleo (99%) presentes en este tipo de aguas residuales.
Se debería establecer un estudio en cuanto a la biorremediación de los lodos formados en el
tratamiento del tipo de aguas residuales presentados. En este sentido, un mayor esfuerzo debe
destinarse al desarrollo de sustancias de origen natural que puedan utilizarse en el tratamiento de
aguas residuales y de consumo con el fin de preservar y garantizar la salud de los seres vivos
además de la fauna y flora de nuestro ambiente.
Bibliografía
Abu Hassan, M. A. a. T., Pei Li and Noor, Zainura Zainon. (2009). Coagulation and flocculation
treatment of wastewater in textile industry using chitosan. Journal of Chemical and Natural
Resources Engineering., 4(1), pp. 43-53.
Agulló, E., Tapia, C., Peniche, C., Heras, Á., Argüelles, W., & Nakamatsu, J. (2004). Fuentes y
procesos de obtención. In A. P. d. Abram (Ed.), Quitina y Quitosano: obtención,
caracterización y aplicaciones (Primera edición ed., pp. 113). Lima, Perú: Fondo Editorial de
la Pontificia Universidad Católica del Perú.
Banco Central del Ecuador. (2014). La Economía Ecuatoriana Cerró El Año Con Un Saldo Neto
De
Usd 1.845,9 Millones,
Correspondiente A 2.0%
Del
Pib.
Retrieved from
http://www.bce.fin.ec/index.php/boletines-de-prensa-archivo/item/625-la-econom%C3%ADaecuatoriana-tuvo-un-crecimiento-anual-de-45-en-2013.
Caldera, Y., Clavel, N., Briceño, D., Nava, A., Gutiérrez, E., & Mármol, Z. (2009). Quitosano como
coagulante durante el tratamiento de aguas de producción de petróleo. Boletín del Centro de
Investigaciones biológicas, 43, 541-555.
Czechowska-Biskup, R., Jarosińska, D., Rokita, B., Ulański, P., & Rosiak, J. M. (2012).
Determination of degree of deacetylation of chitosan—comparison of methods. Progress on
Chemistry and Application of Chitin and Its Derivatives, 17, 5-20.
Da Ros, G. (1995). La contaminación de aguas en Ecuador: una aproximación económica:
Editorial Abya Yala.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
64
Paz, N. d. l., Fernández, M., López, O. D., Nogueira, A., García, C. M., Pérez, D., . . . Díaz, D.
(2012). Optimización Del Proceso De Obtención De Quitosano Derivada De La Quitina De
Langosta. Revista Iberoamericana de Polímeros, 13(3), 103-116.
Paz, N. d. l., Pérez, D., Fernández, M., López, O. D., Nogueira, A., Paneque, M. R., . . . García, C.
M. (2013). Evaluación Viscosimétrica Del Quitosano Derivado De La Quitina De Langosta.
Revista Iberoamericana de Polímeros, 14(2), 84-91.
Pinelli Saavedra, A., Toledo Guillen, A. R., Esquerra Brauer, I. R., Luviano Silva, A. R., & Higuera
Ciapara, I. (1998). [Methods for extracting chitin from shrimp shell waste]. Arch Latinoam
Nutr, 48(1), 58-61.
Reddy, C. M., Eglinton, T. I., Hounshell, A., White, H. K., Xu, L., Gaines, R. B., & Frysinger, G. S.
(2002). The West Falmouth oil spill after thirty years: the persistence of petroleum
hydrocarbons in marsh sediments. Environ Sci Technol, 36(22), 4754-4760.
Renault, F., Sancey, B., Charles, J., Morin-Crini, N., Badot, P.-M., Winterton, P., & Crini, G. (2009).
Chitosan flocculation of cardboard-mill secondary biological wastewater. Chemical
Engineering Journal, 155(3), 775-783. doi:10.1016/j.cej.2009.09.023
Roberts, G. A. F., & Domszy, J. G. (1982). Determination of the viscometric constants for chitosan.
International
Journal
of
Biological
Macromolecules,
4(6),
374-377.
doi:http://dx.doi.org/10.1016/0141-8130(82)90074-5
Rodríguez, Y. (2011). Eficiencia del quitosano como coagulante en el tratamiento del agua
asociada a la producción de petróleo. (Master of Science Tesis de grado), Universidad del
Zulia, Maracaibo, Venezuela. Retrieved from http://tesis.luz.edu.ve/tde_arquivos/80/TDE2012-04-24T10:02:04Z-2834/Publico/rodriguez_diaz_yim_james.pdf
Sastre, R. A. M., Ruiz, P. M., Guibal, E., & Szygula, A. (2010). Aplicación del biopolímero quitosan
en la eliminación del color de las aguas residuales mediante el proceso combinado de
coagulación-floculación y adsorción: Google Patents.
Varela, M. (2011). Procesamiento de camarón para exportación (R6 y R2). Ecuador: Ministerio de
Industrias
y
Productividad
MIPYMES
-
FLACSO
Ecuador.
Retrieved
from
https://www.flacso.org.ec/portal/pnTemp/PageMaster/v1h0ohbg78sb6mncmkkr5w3mwji4ep.
pdf.
Yaghobi, N., & Mirzadeh, H. (2004). Enhancement of chitin's degree of deacetylation by multistage
alkali treatments. Iranian Polymer Journal, 131-136.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 52 - 64
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/07/24
Aceptado (Accepted): 2015/09/15
CC BY-NC-ND 3.0
Dosificación mínima del reactivo Fenton para la remediación de
agua contaminada con colorantes
(Fenton's reagent minimum dosage for remediation of water
contaminated with dyes)
Gina Terán1, Paola Posligua1, Carlos Banchón1
Resumen:
Efluentes de la industria textil no solo representan un riesgo latente para la biodiversidad en
nuestro planeta sino también para el ser humano debido a la contaminación generada por
colorantes industriales. En el presente estudio se evaluó un proceso Fenton para la
decoloración de agua contaminada con amarillo 160, azul 81 y rojo 190 con una concentración
-1
-1
inicial de 3300 mg.L y una demanda química de oxígeno de 1719 mg O2.L . Cambios de pH y
dosis molares de sulfato ferroso y peróxido de hidrógeno fueron evaluados. El proceso Fenton
permitió un 99,9% de remoción de materia orgánica y 100% de remoción de turbidez cuando se
+2
trabajó con pH de 3,5 y dosis molar Fe /H2O2 entre 1:3 y 1:5. Mediante un barrido
espectrofotométrico y medición del potencial de oxido-reducción, se demostró que la calidad
del agua descontaminada se asemejó a la del agua ultrapura tipo I.
Palabras clave: colorantes azoicos; potencial de oxido-reducción; Pelileo; industria textil
Abstract:
Effluents from the textile industry not only represent a latent threat to biodiversity on our planet
but also to humans due to the pollution generated by industrial dyes. In this study a Fenton
process was evaluated for the decoloration of water contaminated with yellow 160, blue 81 and
-1
red 190 with an initial concentration of 3300 mg.L and a chemical oxygen demand of 1719
-1
mg.L . Changes in pH and molar doses of ferrous sulfate and hydrogen peroxide were
evaluated. The Fenton process allowed 99,9% removal of organic matter and 100% removal of
+2
turbidity when it worked at pH 3,5 and molar dose Fe / H2O2 between 1:3 and 1:5. By
spectrophotometric scanning and measurement of redox potential, it was shown that the quality
of decontaminated water resembled the ultrapure water type I.
Keywords: azoic dyes; oxidation-reduction potential; Pelileo; textile industry
1. Introducción
El Programa de las Naciones Unidas para el Medio Ambiente estableció que la industria a nivel
mundial es responsable de descargar entre 300 a 500 millones de toneladas anuales de efluentes
con metales pesados, lodos y colorantes en cuerpos de agua (Roy Choudhury, 2013). En la
industria textil, se han reportado consumos anuales de alrededor de 7x105 ton de colorantes y
consumos de agua de hasta 150 L por cada kg de producto textil (Körbahti y Tanyolaç, 2008;
Eslami, A., Moradi, M., Ghanbari, F., & Mehdipour, F., 2013; Garcés y Hernández, 2012; Bouasla,
2012; Bahmami, Rezaei, Esrafili, Gholami y Jonidi, 2013). Se estima que de la cantidad utilizada
1
Universidad de Las Américas, Quito – Ecuador ( {gteran, paola.posligua, c.banchon} @udlanet.ec )
66
de colorantes en la industria textil, aproximadamente se desperdicia hasta un 15% de colorantes
en efluentes (Daud, Akpan, y Hameed, 2012; Cui, Li, Zhao y Han, 2014); en Malasia el 22% del
volumen total de aguas residuales corresponde a la industria textil (Daud, Akpan, y Hameed,
2012). Con respecto al impacto ambiental, del total de colorantes azoicos, 3000 están catalogados
como cancerígenos y mutagénicos, debido a su descomposición en aminas aromáticas (GrekovaVasileva y Topalova, 2009; Lau et al., 2014). A nivel local, un escenario de contaminación es el
efluente descargado por la industria textil en los afluentes del río Patate en el cantón Pelileo
(Ambato-Ecuador), cauce donde se reportó una demanda bioquímica de oxígeno de 450 mg.L-1,
una demanda química de oxígeno de 880 mg.L-1 y con coloración azul intensa (El Telégrafo,
2009). Se estima que aproximadamente 44 lavanderías de jeans en Pelileo consumen
aproximadamente hasta 30 L.s-1 de agua para la producción diaria de textiles (El Telégrafo, 2013).
A la fecha, en Ecuador, no se han reportado acciones de remediación a gran escala que aporten
con la solución de esta problemática.
Entre las tecnologías de remediación de efluentes industriales, las más comunes son coagulaciónfloculación, coagulación con extractos de plantas, electrocoagulación, adsorción y tratamientos
biológicos (Barbusiński, 2005; Moreno, Figueroa y Hormaza, 2013; Gaber, Abu Ghalwa, Khedr, y
Salem, 2013; Cui, Li, Zhao y Han, 2014; Revelo, Proaño, y Banchón, 2015). El proceso Fenton se
destaca porque éste oxida completamente residuos colorantes; otras tecnologías como las
biológicas, generan oxidaciones incompletas de los colorantes, es decir producen compuestos
orgánicos intermediarios con potencial tóxico para el medio ambiente. Desde su descubrimiento
en 1890 por Henry John Horstman Fenton, el reactivo Fenton -peróxido de hidrógeno y hierro
como catalizador- es capaz de oxidar compuestos alifáticos y aromáticos halogenados,
nitroaromáticos, colorantes azo, fenoles halogenados, formaldehído, herbicidas y hexadecano
(Litter, Domènech, y Jardim, 2001). El proceso de Fenton también es aplicable para aguas
residuales de la industria alimenticia; por ejemplo a escala piloto se utilizó la reacción de Fenton
para aguas contaminadas con tartrazina con eficiencias de remoción de hasta el 99% (Rojas,
Giraldo y Trujillo, 2009). Se han reportado procesos de oxidación avanzada donde se potencia la
reacción Fenton con energía ultravioleta. Por ejemplo, en el tratamiento de aguas residuales
contaminadas con naranja 2, rojo ácido 151, naranja ácido 7, rojo 88 y azul ácido 113 se
alcanzaron porcentajes de remediación próximos a 100 en tiempos de reacción de hasta 60
minutos (Riaza Frutos, Manzano, & Quiroga, 2007; Ohura, Harada, Shiki, Kawakita y Biswas,
2012).
En Ecuador, se ha empleado el proceso Fenton para el tratamiento de suelos contaminados con
hidrocarburos en Nueva Loja (Villacreces, 2013). Sin embargo, la aplicación de este proceso para
el tratamiento de aguas residuales industriales no se ha difundido completamente a pesar de ser
una técnica altamente efectiva y de bajo consumo de energía. A pesar del avance de la tecnología
y de la modernización de la sociedad, el impacto ambiental y la contaminación generada por la
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
67
actividad textilera es persistente. A causa de esto, se planteó en el presente trabajo el objetivo de
evaluar las condiciones operacionales de un proceso Fenton para la oxidación de los colorantes
reactivos amarillo 160, azul 81 y rojo 190, de aplicación industrial. En la presente investigación se
experimentaron las condiciones mínimas y óptimas para la futura aplicación del proceso Fenton
en el tratamiento de aguas residuales provenientes de actividades textileras artesanales.
2. Metodología
2.1. Parámetros de caracterización físico-química del agua
Las muestras de agua contaminada que se utilizaron en el presente estudio se prepararon con los
colorantes azoicos reactivos industriales amarillo 160, azul 81 y rojo 190 provistos por Aromcolor
S.A. (Quito, Ecuador). Estos colorantes se agregaron a 500 mL de agua destilada hasta obtener
una concentración final de 3300 mg.L-1; es decir, la concentración de cada colorante azoico en el
agua fue de 1100 mg.L-1.
La turbidez (NTU) fue medida mediante nefelometría (HANNA instrument, HI 88713, USA). El pH
y el potencial de oxido-reducción (ORP) fueron medidos en un potenciómetro con electrodos de
vidrio-platino (HANNA Instruments, HI 2550, HI 3131, USA). La demanda química de oxígeno
(DQO) en mg O2.L-1 fue determinada mediante espectrofotometría UV-VIS a 620 nm mediante el
decrecimiento de la concentración de cromato luego de la oxidación de la materia orgánica con
dicromato (VII) de potasio, ácido sulfúrico, y sulfato de plata-mercurio (Nanocolor, MachereyNagel COD Ref. 985 023, Alemania). La absorbancia en un rango de 190 a 1100 nm y el color
fueron medidos en un espectrofotómetro UV-Vis (Nanocolor II, Macherey-Nagel, Alemania). La
medida del color en el espectrofotómetro fue dada en unidades CIE L*a*b* (según la Comisión
Internacional de la Iluminación); estas unidades fueron transformadas a formato RGB (red, green,
blue) mediante el software de libre acceso EasyRGB (colour calculator, http://www.easyrgb.com/).
2.2. Índice del potencial de óxido-reducción
Se evaluó la calidad de remoción de colorantes del agua tratada a través de la relación entre el
ORP del agua tratada y el ORP del agua pura tipo I. A esta relación se la denominó índice del
potencial de oxido-reducción.
2.3. Proceso Fenton
El proceso Fenton se llevó a cabo en un equipo para prueba de jarras (Velp scientific, JLTG,
España) a una velocidad de 300 rpm y tiempo de mezcla de 45 minutos. Se utilizaron volúmenes
de agua residual sintética de 250 mL y la temperatura inicial de todas las muestras fue de 40°C.
Todas las muestras se expusieron a una luminosidad de 30397.33 lux entre 3 a 24 horas. La
luminosidad fue medida en un luxómetro (Sper scientific, 850007, U.S.A). Las muestras se filtraron
en una bomba de vacío (Gast Manufacturing, DOA-P704 shown, U.S.A, 2002) y papel filtrante de
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
68
0,5 μm (Microclar, Argentina). Finalmente, las muestras fueron caracterizadas según los
parámetros físico-químicos antes descritos. El pH inicial fue modificado según los respectivos
diseños experimentales con ácido sulfúrico e hidróxido de sodio.
2.4. Dosificación del reactivo Fenton
Para el cálculo estequiométrico del volumen de H2O2 a adicionar al medio de reacción fue
necesario determinar el DQO inicial del agua contaminada (Eslami, A., Moradi, M., Ghanbari, F., y
Mehdipour, F., 2013). Según la caracterización del agua residual, el DQO inicial tuvo un valor de
1719 mg.L-1. A partir de este dato de DQO, según Rodríguez (2010), se obtuvo que por cada litro
de agua residual se adicionó 12,174 mL de peróxido de hidrógeno al 30%. Las unidades
experimentales en el presente proyecto fueron de 250 mL; por tanto, se adicionaron 3,04 mL de
peróxido de hidrógeno al 30% por cada unidad experimental. La dosificación de sulfato ferroso
heptahidratado fue calculada en un rango molar Fe+2/H2O2 de 1:1 a 1:80. En la Figura 1 se
observan las dosis másicas de sulfato de hierro (II) a adicionarse para cada relación molar.
Figura 1. Relaciones molares Fenton entre 1:1 hasta 1:80 según diseño experimental exploratorio y
cantidades de sulfato ferroso a adicionar por cada 3,04 mL de peróxido de hidrógeno al 30% a 250 mL de
agua residual sintética.
2.5. Diseño experimental exploratorio
En el presente estudio se desarrolló un diseño experimental exploratorio (DEE) para determinar la
dosis molar óptima del reactivo Fenton en función del cambio de color y cambio de potencial de
oxido-reducción (ORP). El DEE se utilizó para la evaluación de la influencia de las variables
operacionales (dosis de reactivo Fenton y pH). En la Figura 2A, se presenta el DEE en donde X1
representa la dosis de reactivo Fenton, X2 el pH inicial y la respuesta representada por y (cambio
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
69
de ORP, cambio de color). En la Figura 2B, de los resultados del primer diseño experimental se
seleccionaron los mejores rangos de dosificación para luego optimizar el proceso Fenton. En la
optimización se combinaron las tres variables independientes. Donde, X3 dosis de reactivo Fenton,
X4 pH inicial, X5 tiempo de reposo, versus la respuesta y’ (cambio de ORP, cambio de color).
Figura 2. Diseño experimental exploratorio (A) para la búsqueda de dosis del reactivo Fenton para la
decoloración del agua contaminada y Diseño experimental exploratorio (B) para la optimización de la
dosificación del reactivo Fenton.
3. Resultados
Todos los resultados obtenidos de los respectivos tratamientos se basaron en cálculos
estequiométricos tomando en cuenta un DQO del agua residual de 1719 mg O2.L-1. El estudio del
proceso de remediación tuvo como primer objetivo evaluar las condiciones de pH inicial del agua
contaminada, así como la dosificación a diferentes rangos del reactivo Fenton en función del ORP
(Figura 3). Con propósitos de comparación, en la Figura 3 se presentan los valores de ORP del
agua tipo I (124,4 mV) y del agua residual sintética (224,4 mV).
Según el diseño experimental exploratorio desarrollado para el presente trabajo, se propone una
sucesión en cadena de experimentos que tiene como propósito la evaluación de las condiciones
óptimas de remediación. Es así que, según los resultados de la Figura 3, se prosiguió a
experimentar con dosis molares entre 1:3 a 1:10, puesto que la dosis molar 1:5 fue la que permitió
que el agua tratada se asemeje en su potencial de óxido-reducción al agua pura tipo I. Para
corroborar la eficacia de las dosis molares, además se midió la absorbancia y el color del agua
tratada mediante espectrofotometría. Por lo tanto, se evaluó la reacción Fenton a diferentes pH a
dosis óptimas entre 1:3 a 1:10 (Figura 4).
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
70
Figura 3. Mediciones del potencial de oxido-reducción (ORP) para agua residual sintética, agua ultrapura
tipo I y muestras de agua tratada con dosis molares de Fenton entre 1:1 hasta 1:80.
En donde, (▲) muestras tratadas a pH inicial ácido, (●) muestras tratadas a pH inicial neutro y (◼︎)
muestras tratadas a pH inicial básico.
Figura 4. Mediciones del potencial de oxido-reducción (ORP) para agua residual sintética (Blanco), agua
ultrapura tipo I (Agua pura) y muestras de agua tratada con dosis molares de Fenton entre 1:1 hasta 1:10 a
pH inicial ácido, básico y neutro.
De acuerdo con los resultados obtenidos en la Figura 4 sobre el cambio de ORP y el análisis
colorimétrico de las muestras de agua tratada (Tabla 1), se comprobó que la mejor dosis fue la
relación molar Fe+2/H2O2 1:3 a un pH inicial de 3,5. Un análisis espectrofotométrico también
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
71
comprueba la decoloración del agua residual sintética bajo estas condiciones al compararse los
barridos de absorbancia de muestras de agua pura tipo I, agua contaminada y tratada mediante
Fenton (Figura 5). Según los resultados de las figuras 3 y 4, el pH inicial del agua contaminada
que dio óptimos resultados en función del índice ORP fue 3,5 en concordancia con otros autores
(Benatti, C. T., & Tavares, C. R. G., 2012; Bouasla, C., Ismail, F., & Samar, M. E.-H., 2012; Daud,
N. K., Akpan, U. G., & Hameed, B. H., 2012; Patel & Patel, 2013).
Tabla 1. Mediciones de color en unidades CIE L*a*b para los tratamientos a dosis molares entre 1:1 hasta
1:80 a pH 3,5 y 24 horas como tiempo de reposo, color del agua residual y color del agua pura tipo I.
Muestra
L
a
b
Agua residual
0,4
1,6
0,4
Agua pura tipo I
100
0
0
Tratamiento 1:1
92,9
5,9
19,2
Tratamiento 1:3
99,4
0
2,1
Tratamiento 1:5
97,7
0,7
1,1
Tratamiento 1:7
98,3
0,5
1,8
Tratamiento 1:10
95,2
0,1
0,7
Tratamiento 1:15
99,8
0
1,4
Tratamiento 1:20
99,5
0
3,1
Tratamiento 1:25
99,6
0,1
1,3
Tratamiento 1:30
99,9
0,1
1,8
Tratamiento 1:40
99,6
0,1
0,6
Tratamiento 1:50
95
0
0,9
Tratamiento 1:60
98,7
0,5
2,4
Tratamiento 1:70
97,6
1,1
4,6
Tratamiento 1:80
98,7
0,7
2,3
Se experimentó la reacción Fenton a pH inicial 3,5 y relación molar 1:3, además de tratamientos
químicos de oxidación con hipoclorito sódico 5% y peróxido de hidrógeno al 30% con propósitos
comparativos. En la Figura 6 se observan los resultados de las mediciones del DQO, turbidez y
ORP antes y después del respectivo tratamiento. En la Figura 5 también se comparan estos
tratamientos con la medición de la absorbancia en rangos de longitud de onda entre 190-1100 nm.
4. Discusión
Según la Figura 8, la dosis molar óptima de Fe+2/H2O2 fue 1:5 (414 mg FeSO4 por cada 3,04 mL
de H2O2 30%), pues ésta decoloró al agua contaminada (pH inicial 3,5) hasta llegar a un ORP
similar al del agua pura; mientras que, aunque sí hubo una decoloración a dosis molares mayores
que 1:10, la dosis 1:5 fue la mínima que permitió obtener un potencial de oxido-reducción similar
al del agua tipo I. El ion ferroso al tener su rol de catalizador y reactivo limitante, su concentración
debe ser la óptima en relación al peróxido de hidrógeno para la producción de los radicales
hidroxilos (Bouasla, C., Ismail, F., y Samar, M. E.-H. 2012). A partir de los resultados
experimentales obtenidos en la Figura 8, se experimentó con dosis entre 1:3 hasta 1:10 para
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
72
comprobar si existe una dosis molar óptima todavía menor que 1:5 (Figura 9), tomando en cuenta
que el pH controla la calidad de la reacción de oxidación.
Figura 5. Absorbancia de muestras de agua pura tipo I, agua residual sintética, agua residual tratada con
Cloro (hipoclorito de sodio 5%), con Peróxido (peróxido de hidrógeno al 30%) y Fenton a dosis molar 1:3
pH 3,5 y 24 horas de reposo, rango de longitud de onda 190-1100 nm.
Figura 6. Caracterización físico-química (ORP, turbidez y DQO) del agua tratada mediante tres métodos:
Fenton a dosis molar 1:3 pH 3,5 y 24 horas de reposo, Cloro (hipoclorito de sodio 5%), Peróxido (peróxido
de hidrógeno al 30%).
Según la reacción (1), la acción catalizadora del ion ferroso produce la descomposición del
peróxido de hidrógeno hasta la formación de radicales hidroxilos (OH●), los cuales son
responsables de la decoloración del agua contaminada:
(1)
Fe+2 + H2O2 → Fe+3 + OH- + OH●
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
73
La producción de radicales hidroxilos se ve afectada por el pH del medio y la concentración de
peróxido de hidrógeno: conforme el pH tiende a la acidez, a mayor concentración de peróxido de
hidrógeno la producción de radicales hidroxilos aumenta. Sin embargo, según los resultados
experimentales (Figura 8) y revisión bibliográfica, altos volúmenes de peróxido de hidrógeno no
aseguran la alta generación de radicales hidroxilos si acaso no se cumple la relación
estequiométrica óptima con el ion ferroso (Bouasla, C., Ismail, F., y Samar, M. E.-H., 2012;
Domínguez, J. R., Muñoz, M. J., Palo, P., González, T., Peres, J. A., y Cuerda-Correa, E. M.,
2014). Es de notar que excesos de radicales hidroxilos (OH●) tienden a seguir oxidando iones
ferrosos que no reaccionaron, promoviendo la formación de complejos de hidróxidos férricos:
(2)
OH● + Fe+2 → OH- + Fe+3
Cabe mencionar también que aunque se acidificó el medio con ácido sulfúrico, no obstante, la
acidificación del medio se debe también a la disolución de iones ferrosos, pues estos generan el
aumento de la concentración de iones oxonios (H3O+); estos oxonios debido a su naturaleza ácida
(pK = -1,7) son altamente reactivos y promueven la oxidación de compuestos orgánicos. En la
presente investigación también se aplicó energía ultravioleta la cual participa en la producción de
radicales hidroxilos así como iones ferrosos según Hansson, Kaczala, Marques, & Hogland
(2012):
(3)
Fe+3 + H2O + hv → OH● + Fe+2 + H+
Según resultados experimentales (Figura 3), el pH óptimo inicial del agua contaminada fue 3,5
pues éste favorece la reacción de oxidación Fenton. Además, se determinó que las dosificaciones
molares Fe+2/H2O2 entre 1:3 y 1:5 son las óptimas para la decoloración del agua contaminada
(figuras 8 y 9).
El pH inicial 3,5 del agua contaminada regula la reacción de oxidación, pues existe una
generación favorable de OH●, los cuales son altamente oxidantes con un potencial de oxidación
de 2,8 V y así permiten un mínimo del 90% de decoloración y remoción de DQO bajo condiciones
ácidas (Kalra, S. S., Mohan, S., Sinha, A., y Singh, G., 2011; Bouasla, C., Ismail, F., & Samar, M.
E.-H., 2012; Daud, N. K., Akpan, U. G., y Hameed, B. H., 2012). Sin embargo, se ha demostrado
que un pH del agua contaminada por debajo de 3,0 no favorece su decoloración debido a la
inhibición de la acción catalizadora del ion ferroso (Daud, N. K., Akpan, U. G., y Hameed, B. H.,
2012; El Haddad et al., 2014). A pH mayor que 4 ocurre descomposición del peróxido de
hidrógeno y se favorece que iones férricos formen complejos hidróxidos (reacción 4) con
tendencia a precipitar y aumentar la producción de lodos (Benatti, C. T., y Tavares, C. R. G., 2012;
Saber, A., Hasheminejad, H., Taebi, A., y Ghaffari, G., 2014).
(4)
Fe+3 + 3H2O → Fe(OH)3 + 3H+
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
74
Figura 8. Índice ORP para el agua pura tipo I, agua residual sintética y tratamientos con dosis molares entre
1:1 hasta 1:80. En fotografías, las muestras tratadas con Fenton y la muestra original de agua residual
sintética. Tratamientos Fenton a un pH inicial de 3,5 y tiempo de reposo de 24 horas.
En la Figura 9 B,C y D se reportan los resultados de tratamientos con diversos oxidantes: reactivo
Fenton (dosis 1:3, pH inicial 3,5), hipoclorito de sodio comercial al 5% y peróxido de hidrógeno al
30%. De estos tratamientos, el reactivo Fenton permitió la remoción del 99,9% de DQO y 100% de
turbidez, en comparación con sus homólogos los cuales no removieron significativamente la
contaminación del medio. Según los resultados de la Figura 9 B,C y D, los tratamientos con el
reactivo Fenton evidencian el poder oxidativo de los radicales hidroxilos, en comparación con el
potencial de oxidación del hipoclorito de sodio 5% (1,36 V) y peróxido de hidrógeno (1,78 V). Se
comprueba que para este caso, el peróxido de hidrógeno al 30% por si solo no es eficiente como
oxidante de los colorantes contaminantes del agua (El Haddad, M., Regti, A., Laamari, M. R.,
Mamouni, R., y Saffaj, N., 2014).
La decoloración del medio contaminado fue comprobada mediante un barrido de absorbancia en
un rango de longitud de onda entre 190 -1100 nm (Figura 5). Se demostró que en efecto la dosis
molar 1:3 removió aquellos picos de absorbancia adjudicados a los colorantes amarillo 160, azul
81 y rojo 190. Además, mediante un análisis colorimétrico (Tabla 1) se determinó el color en
unidades RGB (Figura 10) de los tratamientos con dosis Fenton entre 1:1 hasta 1:80. En la Figura
10 se observa el cambio de coloración de la muestra de agua pura tipo I, su contaminación con
los tres colorantes y su decoloración mediante Fenton. Los resultados del análisis colorimétrico
fueron sometidos a un análisis de varianza en el software R-project y como resultado se obtuvo
que las dosis molares 1:5 y 1:10 tuvieron un p-estadístico mayor que 0,05. Es decir, el color final
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
75
de estas muestras tratadas con dosis molares 1:5 y 1:10 no variaron significativamente del color
de la muestra original de agua pura tipo I.
Figura 9. (A) Mediciones de ORP para los tratamientos Fenton de optimización en dosis molares entre 1:3
hasta 1:10, a pH inicial 3,5 y tiempo de reposo de 24 horas. (B) Índice ORP para agua pura tipo I,
tratamiento Fenton con dosis molar 1:3 a pH inicial 3,5 y tiempo de reposo de 24 horas; (C) porcentajes de
remoción de DQO para las muestras tratadas con Fenton, hipoclorito sódico 5% y peróxido de hidrógeno
30%; (D) porcentaje de remoción de turbidez para las muestras tratadas con Fenton, hipoclorito sódico 5% y
peróxido de hidrógeno 30%.
Figura 10. Representación gráfica del cambio de color tomando como referencia las transformaciones del
color en unidades RGB (calculadas a partir de Tabla 1). En el centro se representa el color del agua pura
tipo I, y a su alrededor los colores del agua residual sintética. En la periferia de la gráfica se representan los
colores finales después del tratamientos. Se representa también el valor del p-estadístico de cada muestra
tratada con Fenton y en referencia al valor del color del agua pura tipo I.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
76
Un análisis colorimétrico para los tratamientos entre 1:1 hasta 1:10 (Figura 11) determinó el color
en unidades RGB así mismo determinó la varianza estadística entre el agua tratada y el agua pura
tipo I. Como se puede observar en la Figura 11, el color final del agua tratada con dosis molares
1:3 y 1:5 no difiere estadísticamente del color del agua pura (p > 0,05). Este análisis colorimétrico,
además del barrido de absorbancia, y las mediciones del índice ORP, comprueba que la dosis
mínima y óptima para oxidar colorantes de agua contaminada con amarillo 160, azul 81 y rojo 190
(conc. final 3300 mg.L-1) fue una dosis molar Fe+2/H2O2 de 1:3.
En el presente y demás estudios se ha comprobado que la oxidación de colorantes mediante
Fenton depende de la dosis molar Fe+2/H2O2 y el pH inicial; sin embargo, todavía se discute si el
mecanismo de oxidación se refiere a la producción de radicales hidroxilos o a un mecanismo
mediante la formación de especies del ion ferril [Fe(IV)O]+2 (Chemizmu, K., y Fentona, R., 2009).
Figura 11. Representación gráfica de la optimización de dosis molares Fenton entre 1:3 hasta 1:10 versus
los colores de cada muestra (colores en unidades RGB a partir de datos de Tabla 1), en comparación con
los colores del agua residual sintética, y del agua pura tipo I. En la parte superior se presenta el valor del pestadístico tomando como referencia el valor del color de cada muestra y en referencia al valor del color del
agua pura tipo I. Tratamiento a pH inicial 3,5 y 24 horas de reposo.
4. Conclusiones y Recomendaciones
Se obtuvieron dosificaciones mínimas y óptimas para la remediación de agua contaminada con
colorantes. En dos diseños experimentales (exploración y optimización) se determinó que las
dosis molares óptimas Fe+2/H2O2 para la decoloración de agua contaminada con amarillo 160, azul
81 y rojo 190 fueron 1:3 y 1:5 en medio ácido (pH 3,5). El consumo de peróxido de hidrógeno 30%
fue apenas de 3,04 mL por cada 250 mL de agua contaminada; es decir, se utilizó aprox. 1,2% de
peróxido de hidrógeno de la masa total de agua contaminada (DQO de 1719 mg O2.L-1); mientras
que el consumo de sulfato ferroso fue de apenas un 0,3% de la masa total del medio de reacción.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
77
Todas las variables respuesta (turbidez final, potencial de óxido-reducción, color y DQO) fueron
medidas después de 24 horas.
Se experimentaron dos tipos de oxidantes (hipoclorito de sodio comercial al 5% y peróxido de
hidrógeno al 30%) para comparar su eficiencia con el reactivo Fenton. De estos tratamientos, el
reactivo Fenton permitió la remoción del 99,9% de DQO y 100% de turbidez, en comparación con
el cloro y el peróxido de hidrógeno los cuales no removieron ni el 50% de la contaminación. De
estos resultados se evidenció el poder oxidativo del reactivo Fenton para una contaminación de
3300 mg.L-1 de colorantes reactivos azoicos. El color final del agua tratada con dosis molares 1:3 y
1:5 no difiere significativamente del color del agua tipo I según análisis potenciométrico,
colorimétrico y espectrofotométrico.
Además de procesos de coagulación química y natural, los procesos de oxidación avanzada
ofrecen a la industria textilera una opción para el tratamiento de sus efluentes contaminados con
residuos de colorantes reactivos azoicos. Efluentes de la industria textilera son considerados
tóxicos y de alta carga contaminante. El proceso Fenton ha demostrado ser una opción
económica en términos de consumo de reactivos y con amplias perspectivas de aplicación a gran
escala en beneficio del medio ambiente.
Bibliografía
Arroyave Rojas, J. A., Garcés Giraldo, L. F., & Mejía Trujillo, J. (2009). Emprego do reativo de
Fenton para a degradação do corante Tartrazina. Revista Lasallista de Investigación, 6(1),
27–34.
Bahmani, P., Kalantary, R. R., Esrafili, A., Gholami, M., & Jafari, A. J. (2013). Evaluation of Fenton
oxidation process coupled with biological treatment for the removal of reactive black 5 from
aqueous solution. Journal of Environmental Health Science and Engineering, 11(1), 13.
Barbusiński, K. (2005). The modified Fenton process for decolorization of dye wastewater. Polish
Journal of Environmental Studies, 14(3), 281–285.
Benatti, C. T., & Tavares, C. R. G. (2012). Fentons Process for the Treatment of Mixed Waste
Chemicals. Faculdade Ingá–UNINGÁ, Universidade Estadual de Maringá–UEM, Brazil
Unpublished, 25.
Bouasla, C., Ismail, F., & Samar, M. E.-H. (2012). Effects of operator parameters, anions and
cations on the degradation of AY99 in an aqueous solution using Fenton’s reagent.
Optimization and kinetics study. International Journal of Industrial Chemistry, 3(1), 1–11.
Chemizmu, K., & Fentona, R. (2009). Fenton reaction-controversy concerning the chemistry.
Ecological Chemistry and Engineering, 16, 347–358.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
78
Cui, D., Li, G., Zhao, M., & Han, S. (2014). Decolourization of azo dyes by a newly isolated
Klebsiella sp. strain Y3, and effects of various factors on biodegradation. Biotechnology &
Biotechnological Equipment, 28(3), 478-486. http://doi.org/10.1080/13102818.2014.926053
Daud, N. K., Akpan, U. G., & Hameed, B. H. (2012). Decolorization of Sunzol Black DN conc. in
aqueous solution by Fenton oxidation process: effect of system parameters and kinetic
study.
Desalination
and
Water
Treatment,
37(1-3),
1-7.
http://doi.org/
10.1080/19443994.2012.661246
Domínguez, J. R., Muñoz, M. J., Palo, P., González, T., Peres, J. A., & Cuerda-Correa, E. M.
(2014). Fenton advanced oxidation of emerging pollutants: parabens. International Journal
of Energy and Environmental Engineering, 5(2-3), 1–10. http://doi.org/10.1007/s40095-0140089-1
El Haddad, M., Regti, A., Laamari, M. R., Mamouni, R., & Saffaj, N. (2014). Use of Fenton reagent
as advanced oxidative process for removing textile dyes from aqueous solutions. J Mater
Environ Sci, 5, 667–674.
El Telégrafo. (2009). Industria del jean afecta al río de Patate. El Telégrafo. Guayaquil, Ecuador.
Retrieved from http://goo.gl/eOXLBR
El Telégrafo. (2013). Taiwán ofrece asesoría para textileros de Pelileo. El Telégrafo. Guayaquil,
Ecuador.
Retrieved
from
http://www.telegrafo.com.ec/regionales/regional-
centro/item/taiwan-ofrece-asesoria-para-textileros-de-pelileo.html
Eslami, A., Moradi, M., Ghanbari, F., & Mehdipour, F. (2013). Decolorization and COD removal
from real textile wastewater by chemical and electrochemical Fenton processes: a
comparative study. Journal of Environmental Health Science and Engineering, 11(1), 31.
Gaber, M., Abu Ghalwa, N., Khedr, A. M., & Salem, M. F. (2013). Electrochemical Degradation of
Reactive Yellow 160 Dye in Real Wastewater Using C/PbO2-, Pb + Sn/PbO2 + SnO2-, and
Pb/PbO2
Modified
Electrodes.
Journal
of
Chemistry,
2013,
1–9.
http://doi.org/10.1155/2013/691763
Garcés Giraldo, L. F., & Hernández Ángel, M. L. (2012). Tratamiento de aguas residuales de la
industria textil por medio de luz ultravioleta: una comparación de dióxido de titanio y fenton.
Retrieved from http://repository.lasallista.edu.co/dspace/handle/10567/701
Grekova-Vasileva, M., & Topalova, Y. (2009). Biological Algorithms for Textile Wastewater
Management.
Biotechnology
&
Biotechnological
Equipment,
http://doi.org/10.1080/13102818.2009.10818459
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
23(sup1),
442–447.
79
Hansson, H., Kaczala, F., Marques, M., & Hogland, W. (2012). Photo-Fenton and Fenton
Oxidation of Recalcitrant Industrial Wastewater Using Nanoscale Zero-Valent Iron.
International Journal of Photoenergy, 2012, 1–11. http://doi.org/10.1155/2012/531076
Kalra, S. S., Mohan, S., Sinha, A., & Singh, G. (2011). Advanced Oxidation Processes for
Treatment of Textile and Dye Wastewater: A Review. In 2nd International Conference on
Environmental Science
and Development
(Vol.
4,
pp.
271–5).
Retrieved from
http://www.ipcbee.com/vol4/59-ICESD2011D30020.pdf
Körbahti, B. K., & Tanyolaç, A. (2008). Electrochemical treatment of simulated textile wastewater
with industrial components and Levafix Blue CA reactive dye: Optimization through
response surface methodology. Journal of Hazardous Materials, 151(2-3), 422–431.
http://doi.org/10.1016/j.jhazmat.2007.06.010
Lau, Y.-Y., Wong, Y.-S., Teng, T.-T., Morad, N., Rafatullah, M., & Ong, S.-A. (2014). Coagulationflocculation of azo dye Acid Orange 7 with green refined laterite soil. Chemical Engineering
Journal, 246, 383–390. http://doi.org/10.1016/j.cej.2014.02.100
Litter, M. I., Domènech, X., & Jardim, W. F. (2001). Procesos avanzados de oxidación para la
eliminación
de
contaminantes.
Eliminación
de
Contaminantes
Por
Fotocatálisis
Heterogénea, 1. Retrieved from http://goo.gl/HHZtrn
Moreno, A., Figueroa, D., & Hormaza, A. (2013). Adsorción de azul de metileno sobre cascarilla de
arroz. Retrieved from http://repository.lasallista.edu.co/dspace/handle/10567/837
Ohura, S., Harada, H., Shiki, M., Kawakita, H., & Biswas, B. K. (2012). Decoloration of Acid Red
88 Using Synthetic-Zeolite-Based Iron as a Heterogeneous Photo-Fenton Catalyst.
Environment and Pollution, 2(1). http://doi.org/10.5539/ep.v2n1p36
Patel, R. D., & Patel, R. L. (2013). Treatment of Dye Intermediate Waste-Water by Fenton and
Electro-Fenton Treatments. International Journal of Research in Modern Engineering and
Emerging Technology, 1(3), 7.
Revelo, A., Proaño, D., & Banchón, C. (2015). Biocoagulación de aguas residuales de industria
textilera mediante extractos de Caesalpinia spinosa. Enfoque UTE, 6 (1), 1 – 12.
Riaza Frutos, A., Manzano, M., & Quiroga, J. (2007). Oxidación de azo-colorantes vía reacción
foto-Fenton. Ingeniería Química. Facultad de Ciencias del Mar y Ambientales, Universidad
de Cádiz. Retrieved from http://www.inese.es/html/files/pdf/amb/iq/444/IQfeb12.pdf
Rodriguez, R., Flesler, F., & Lehmann, V. (2010). Oxidación avanzada - sistema Fenton - en
tratamiento de efluentes industriales de alta carga orgánica. Inti Ambiente.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
80
Roy Choudhury, A. K. (2013). Green chemistry and the textile industry. Textile Progress, 45(1), 3143. http://doi.org/10.1080/00405167.2013.807601
Saber, A., Hasheminejad, H., Taebi, A., & Ghaffari, G. (2014). Optimization of Fenton-based
treatment of petroleum refinery wastewater with scrap iron using response surface
methodology. Applied Water Science, 4(3), 283–290. http://doi.org/10.1007/s13201-0130144-8
Villacreces, L. (2013). Aplicación de oxidación química tipo fenton asistida con detergente para
tratamiento de suelos contaminados con petróleo. Escuela Superior Politécnica del
Ejercito. Retrieved from http://repositorio.espe.edu.ec/bitstream/21000/7802/1/T-ESPE047460.pdf
Enfoque UTE, V.6-N.3, Sep.2015, pp. 65 - 80
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9663
Recibido (Received): 2015/06/18
Aceptado (Accepted): 2015/09/15
CC BY-NC-ND 3.0
Diseño de un incinerador de lecho fluidizado para procesar
desechos sólidos orgánicos
(Design of a fluidized bed incinerator to process organic solid
waste)
Salvatore La Verde Spano1, Leonardo Taylhardat1
Resumen:
El trabajo contempla el diseño teórico de un incinerador de lecho fluidizado para la eliminación
de desechos orgánicos, según los parámetros más avanzados publicados en los trabajos sobre
el tema, tomando en consideración las normativas previstas para este tipo de equipo y
relacionadas con el ambiente. Los diseños actuales de los incineradores y gasificadores de
lecho fluidizado demostraron ser principalmente de forma cilíndrica. Los elementos de diseño a
los cuales se les atribuye mayor importancia son la temperatura de operación del incinerador y
el tiempo de residencia del desecho dentro del mismo. La temperatura de operación del
incinerador debe estar entre 850 y 1.100°C para asegurar la destrucción casi completa de los
compuestos orgánicos en el desecho y evitar la emisión de contaminantes, principalmente
dioxinas y furanos, el tiempo de residencia es de tres (3) minutos, y se plantea el uso de arena
de sílice como material de soporte para cumplir con las normativas ambientales, técnicas y de
-1
salubridad. Las dimensiones del incinerador para una capacidad de tratamiento de 1 t hr se
determinaron en función del tiempo de residencia, volumen y densidad del desecho a incinerar,
y fueron 514 mm de diámetro y 6.650 mm de alto.
Palabras clave: incinerador, fluidización, lecho, temperatura, tiempo.
Abstract:
This work includes the theoretical design of a fluidized bed incinerator for organic waste
disposal, according with the most advanced parameters published about the subject, taking into
account the regulations provided for this type of equipment and related environment. Current
designs of incinerators and fluidized bed gasifiers proved to be mostly cylindrical. The design
element to which greater importance is ascribed to the incinerator operating temperature and
residence time of the waste inside it. The incinerator operating temperature should be between
850 and 1.100 ° C to ensure almost complete destruction of the organic compounds in the
waste and prevent the emission of pollutants, mainly dioxins and furans, the residence time is
three (3) minutes and silica sand is proposed to be used as support material, to comply with
environmental regulations and health techniques. Incinerator dimensions for 1 ton hr-1
treatment capacity are determined by the residence time, volume and density of the waste to be
incinerated, and were 514 mm in diameter and 6.650 mm of high.
Keywords: incinerator, fluidization bed, temperature, time.
1
Universidad Central de Venezuela, Maracay−Venezuela ( {salvatore.laverde, leonardo.taylhardat}@ucv.ve)
82
1. Introducción
El desarrollo actual de la humanidad y el crecimiento poblacional han traído consigo una gran
producción de residuos, los cuales tienen un impacto negativo tanto en el ambiente como en la
salud. Su acumulación y la búsqueda de nuevos sitios de rellenos sanitarios se hace complicado,
por las exigencias ambientales inherentes debido tanto a su gran volumen, como a los costos
generados por su procesamiento, además, los vertederos se han convertido en focos
permanentes de contaminación y por esta razón el manejo de los desechos sólidos ha devenido
en un problema de salud pública, la Organización para la Cooperación y Desarrollo Económico y
la Organización Panamericana para la Salud estiman que se producen en la actualidad de 0,8 a
1,4 kg de desechos sólidos totales por habitante-día (Organization for Economic Co-operation and
Development, 2005; Organización Panamericana de la Salud, 2005), y tomando en cuenta que la
población mundial para el año 2011 era de 6.974 millones de personas, se tiene que ese año se
produjeron cerca de 9.764.000 toneladas de desechos (Fondo de Población de las Naciones
Unidas, 2011).
En Venezuela el procesamiento de desechos sólidos en general es limitado, por cuanto existen
innumerables vertederos de basura a cielo abierto en las principales ciudades y pocas alternativas
adecuadas de manejo, como por ejemplo los rellenos sanitarios, se tiene que para el año 2010,
solo se contaba con dos de estos en el país, esto trae como consecuencia que se puedan
presentar problemas de contaminación de cuerpos de agua por lixiviación de contaminantes.
La Facultad de Agronomía de la Universidad Central de Venezuela (FAGRO), con sede en
Maracay, Venezuela, no escapa a esta realidad debido a su vasta extensión (180 hectáreas, de
las cuales 17 hectáreas son de jardines y áreas verdes), en donde se genera una gran cantidad
de desechos sólidos orgánicos, tales como desechos y residuos vegetales, papelería no
reciclable, y en donde además hay un comedor universitario que genera desechos sólidos.
Una posible solución al manejo y tratamiento de los residuos lo constituye la incineración. En las
últimas décadas, una gran cantidad de países industrializados la han empleado como tratamiento
de los residuos sólidos urbanos. La utilización de esta tecnología permite reducir en gran medida
el peso (75%) y el volumen (90%) de los residuos a tratar y además, obtener energía. En virtud del
alto poder calorífico requerido para incinerar el material y del potencial contaminante de las
emisiones, los sistemas de incineración han evolucionado hacia tecnologías capaces de alcanzar
mayores rendimientos en la combustión y mayor eficacia en la eliminación de contaminantes
(Romero, 2001).
Uno de los avances tecnológicos que viene desarrollándose es la denominada incineración de
lecho fluidizado, la cual se caracteriza por realizar la combustión no directamente en el desecho
sino utilizando un material inerte como vehículo. Este material inerte usualmente está constituido
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
83
por: arenas, cenizas, piedra caliza u otro material, al cual se le agrega el desecho a ser incinerado
que puede ser: combustible, carbón, material vegetal, basura, entre otros, este se mezcla
mediante un sistema neumático al material inerte y se procede a la combustión controlada del
mismo, se recomienda que el material combustible no sea mayor al 5% del peso total del lecho,
usualmente el rango varía de 2 al 5% del mismo.
El incinerador de lecho fluidizado no solo elimina los desechos orgánicos sino que evita la
conversión de dichos desechos en metano (CH4), como cuando estos son acumulados en los
rellenos sanitarios y como el metano equivale a 21 veces el efecto del Dióxido de Carbono (CO2)
al efecto invernadero en la atmosfera se reduce el impacto sobre el mismo, obteniéndose un
tratamiento más eficiente. (International Carbon Bank & Exchange, 2000; Tryger Ltda, (s. f.))
El material a incinerar es muy variado, desde residuos sólidos municipales (RSM) usados en los
incineradores de López y Bautista (2004) y Reis et al. (2007), lodos residuales de plantas de
tratamiento de agua en el incinerador de Von Roll Inova en Balogh y Nollet (2008), hasta carbón y
biomasa usado en gasificadores e incineradores estudiados en Velez et al. (2009) y Pöykiö et al.
(2009).
El presente trabajo constituye una propuesta factible desde el punto de vista técnico para eliminar
la gran cantidad de desechos sólidos orgánicos generados en la Facultad de Agronomía, teniendo
como objetivo diseñar un incinerador de lecho fluidizado para procesar desechos sólidos
orgánicos agrícolas e inorgánicos combustibles procedentes de FAGRO.
2. Materiales y métodos
Las dimensiones del incinerador dependen de la cantidad de desechos a incinerar y de la
frecuencia de generación (flujo másico). La altura mínima de la cámara de combustión se calcula
a partir de la sección transversal seleccionada para el incinerador.
Dado que el lecho se va a expandir al fluidizarse, y que dicha expansión puede llegar al 100% o
más del lecho en reposo, la altura de diseño de la cámara de combustión se recalcula y se
establece en por lo menos el doble de la altura calculada anteriormente, para evitar así el arrastre
de partículas sin incinerar fuera del incinerador.
El siguiente paso es elegir y caracterizar los materiales que se usan como soporte del lecho, para
ello se determina la granulometría de las partículas del soporte a utilizar, con lo cual se
encuentran los diámetros mínimos y máximos en milímetros.
Se selecciona el equipo adecuado que garantice el suministro del aire necesario para fluidizar el
lecho, para ello se calcula el caudal necesario a través de la ecuación.
Q  vA
(1)
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
84
Donde A es la sección transversal del incinerador y v es la velocidad mínima de fluidización, la
cual se calcula teóricamente según la fórmula determinada por Coltters y Rivas (2004).


v mf  9,7119 x107 X 
0,84268  0,01601
(2)
para un diámetro de partícula entre 95 μm ≤ Dp ≤ 800 μm, donde X es una constante y se calcula
con la siguiente formula:
DP2  S  g  g  S
X


 g
1,23



(3)
Donde ρs es la densidad de la arena o material del lecho, ρg es la densidad del fluido (aire a 25
°C), g la aceleración de la gravedad, Dp el diámetro de la arena y μ la viscosidad del fluido.
Se debe trabajar en el diseño con velocidades mínimas de fluidización y por lo tanto se obtienen
caudales mínimos, al seleccionar el equipo es necesario tomar en cuenta este factor y escoger
aquel que entregue un caudal por encima de tales valores.
Otros de los factores a tomar en cuenta para lograr una combustión eficiente son las pérdidas de
calor que pueden ocurrir por la falta de aislamiento, por lo tanto se revisa la bibliografía para
determinar si dichas pérdidas afectan la eficiencia de la combustión y cómo evitarlo.
Finalmente se establece el periodo y frecuencia, y los puntos clave de toma de temperatura a lo
largo del proceso, así como el análisis de los gases de la combustión a la salida del incinerador.
3. Resultados y discusión
3.1. Identificación y análisis de los diseños de incineradores de lecho fluidizado
Se eligió diseñar el incinerador con sección cilíndrica, ya que es la forma geométrica más sencilla
de construir y de operar, sumado a que la distribución del lecho es más uniforme, siendo el
material predominantemente usado en el diseño el acero al carbono con accesorios en acero
inoxidable. Dado que la forma elegida del incinerador es cilíndrica la sección transversal libre A se
calcula con la ecuación del área de una sección circular.
Los elementos de diseño a los cuales se le atribuye mayor importancia son la temperatura de
operación del incinerador y el tiempo de residencia del desecho dentro del mismo. Para cumplir
con las normas sobre calidad del aire y control de la contaminación atmosférica (República de
Venezuela, 1995), ver Tabla 1, la temperatura de operación del incinerador debe estar entre 850 y
1.100 °C y el tiempo de residencia en tres (3) minutos.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
85
Tabla 1. Límites de emisión de contaminantes del aire y de opacidad para fuentes fijas de contaminación
atmosférica.
-3
Contaminantes
Mg.m
Cloruro de Hidrogeno (HCl)
50
Dióxido de Azufre (SO2)
100
Fluoruro de Hidrogeno (HF)
2
Bromuro de Hidrogeno (HBr)
5
Monóxido de Carbono (CO)
400 ppm
Óxidos de Nitrógeno (NOx)
200
-1
Partículas solidas
200 (residuos 1 – 3 t.h )
-3
Dioxinas y Furanos
0,1 ng.m
Hidrocarburos aromáticos policíclicos (PAH)
0,05
Fuente: República de Venezuela, (1995).
3.2. Diseño del incinerador para la producción de desechos sólidos de la Facultad de
Agronomía
En FAGRO se genera aproximadamente un total de 3 kg.m-2.mes-1 de desechos orgánicos, y dado
que el área de jardines de FAGRO es de aproximadamente 17 ha, se generan alrededor de 510
t.mes-1 de desechos orgánicos agrícolas lo que da alrededor de 17 t.dia-1 y por lo tanto 0,71 t.hr-1,
se redondea este valor hasta 1 t.hr-1 tomando en cuenta las distintas variables que inciden en el
crecimiento de las plantas y caídas de hojas y ramas.
Por lo tanto, tomando 1 t.hr-1 como el flujo másico del desecho a incinerar y sabiendo que la
densidad del desecho agrícola es de 0,09042 t.m-3 (determinado experimentalmente por los
autores en el Laboratorio de Materiales de FAGRO) y tres minutos de tiempo de residencia, se
determinó el volumen de desecho a incinerar el cual equivale al volumen de la cámara de
combustión, siendo 0,553 m3.
Dado que el incinerador de lecho fluidizado semeja una tubería, se calcula el diámetro libre, a
partir de las tuberías de acero sin costura disponibles en el mercado, se recomienda que este
diámetro no sea muy grande debido a que se requerirá mucha energía para fluidizar el lecho, en
este trabajo, se fijó en 0,514 m, el cual es el diámetro interno de una tubería de 30 pulgadas (762
mm) de acero al carbono sin costura, ya que se consigue fácilmente en el mercado nacional,
menos dos veces el alto de un ladrillo refractario (0,1143 m).
0,762 m – 2 x 0,00953 m – 2 x 0,1143 m = 0,514 m
Para el diámetro de 0,514 m corresponden un área transversal circular libre A de 0,208 m2 y una
altura mínima de 2,66 m.
Dado que el lecho se expandirá hasta un 100% o más de la longitud del lecho en reposo, se
recalcula la altura del mismo con un factor de seguridad de 2,5 y se establece en 6.650 mm para
evitar el arrastre de partículas sin incinerar fuera del incinerador.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
86
Se analizaron tres tipos diferentes de arena en el laboratorio de materiales de FAGRO: arena de
sílice, arena de los médanos de Coro y arena lavada empleada en construcción, y se obtuvo que
la más adecuada es la arena de sílice, ya que se busca obtener un diámetro promedio entre 0,3
mm y 0,6 mm y esa fue la arena que proporcionó la caracterización más uniforme. Se determinó la
densidad de la arena, obteniéndose un valor de 1.528,2 kg.m-3, ver Tabla 2.
Tabla 2. Valores de densidad y diámetro de la arena del lecho.
-3
Densidad de la arena ρs
1.528,2 kg.m
>0,3 mm
Diámetro de la partícula Dp
<0,6 mm
En la fabricación del incinerador se empleará como materia prima acero al carbono por su
maleabilidad para trabajarla, su precio accesible y su facilidad para adquirirla.
El plato distribuidor que soportará el lecho será de acero inoxidable de 10 mm de espesor y con
múltiples perforaciones. Para evitar que la arena se vaya por las perforaciones cuando el
incinerador esté en reposo, se colocan en cada perforación toberas de acero inoxidable.
El aire para fluidizar el lecho será suministrado por un compresor debido a que este garantiza el
flujo constante de aire y mantiene la presión.
Para obtener el caudal con la fórmula (1), primero se calcula la velocidad mínima de fluidización
con las fórmulas (2) y (3) con los datos de la Tabla 3, (Potter y Wiggert, 1998) y la aceleración de
gravedad g como 9,81 m.s-2.
Tabla 3. Propiedades del aire a 25°C.
-3
Densidad ρg
1,18 kg.m
Viscosidad μ
1,783 x 10 kg.m .s
-5
-1
-1
Se utilizan los valores extremos de los diámetros de la arena y se obtiene un rango de velocidades
mínimas de fluidización que va desde 225 m.h-1 hasta 720 m.h-1, las cuales están dentro del rango
de velocidades mencionadas por Prieto (s. f.), con la velocidad mínima de fluidización y el área
transversal del incinerador 0,208 m2 se calcula el caudal con la ecuación (1), obteniéndose un
rango desde 46,8 m3.h-1 hasta 149,8 m3.h-1, para seleccionar el compresor se transforman las
unidades a litros por minuto y se obtiene un rango de 780 lpm hasta 2.500 lpm, el cual puede ser
alcanzado con un compresor de 25 HP, cuatro pistones en “V”, doble etapa de compresión, 2.800
lpm y 175 psi.
El cuerpo del incinerador mostrado en la Figura 1 es de acero al carbono, se fabrica a partir de un
tubo de acero sin costura de 762 mm y consta de siete (7) secciones, la primera sección es de
500 mm de altura, las otras seis (6) de 1.143 mm de altura cada una para así aprovechar la
longitud del ladrillo refractario, obteniéndose una altura total de 7.538 mm para garantizar la altura
necesaria de 6.650 mm de la cámara de combustión; para unir cada sección se coloca un flange o
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
87
brida de 100 mm de ancho y 12 mm de espesor con perforaciones de 14,29 mm y conectar con
pernos de 12,7 mm. En cada sección del incinerador, se encuentran orificios con tapón macho de
12,7 mm de diámetro donde se enroscan los termopares para la toma de temperaturas, y otros
dos orificios para los indicadores de caída de presión ubicados en la sección del lecho. La primera
sección de abajo hacia arriba del incinerador es la de entrada de aire para fluidizar el lecho
proveniente del compresor y el combustible. Entre esta sección y la siguiente se encuentra el plato
distribuidor, el mismo es de acero inoxidable con un espesor de 10 mm, en dicho plato van
ubicadas las toberas de aire de fluidización.
Figura 1. Esquema del Incinerador de Lecho Fluidizado e indicaciones de partes componentes.
Las toberas se componen de un tubo sin costura de acero inoxidable AISI-304L de 9,525 mm
(0,375 pulgada) de diámetro y 56 mm de longitud, de los cuales 44 mm sobresalen del plato
distribuidor al que están soldados, el extremo superior está cerrado y a 7 mm de este se localizan
4 orificios equidistantes de 3,175 mm (1/8 de pulgada), ver Figura 2.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
88
Figura 2. Detalle Tobera.
La segunda sección es la sección del lecho, tiene un ducto de entrada de desechos con un ángulo
de 55° hacia la pared del mismo para garantizar que todo el material a incinerar deslice y entre al
incinerador, dicho ducto posee dos compuertas de seguridad para dosificar la entrada de material
al incinerador, dichas compuertas se activarán cada tres minutos (tiempo de residencia) y el
desecho se lleva al incinerador a través de un transportador tipo sin fin con un caudal de 1 t.h-1.
En la tercera sección del incinerador hay dos entradas laterales opuestas en forma de “V” con un
ángulo de 45° hacia la pared del mismo, fabricadas de tubos de acero sin costura de 63,5 mm (2
½ pulgadas) de diámetro, estas se usan como mirilla de observación y para introducir el soplete
de soldadura de oxígeno y acetileno para el arranque del sistema.
En la última sección se coloca una tubería cuadrada lateralmente al incinerador para conectarlo a
un ciclón que recoge las partículas de lecho y de materia orgánica sin incinerar y las vuelve a
insertar dentro del incinerador en la segunda sección. En la salida del ciclón se coloca la
chimenea y los rociadores de agua para enfriar el gas rápidamente a menos de 200 °C y así evitar
la formación de dioxinas y furanos.
A la salida de la chimenea se colocará un analizador de gases comercial con capacidad de
medición de oxígeno, dióxido de carbono, monóxido de carbono, óxidos de nitrógeno, dióxido de
azufre, temperatura, presión, velocidad, caudal, exceso de aire y eficiencia de combustión.
El aislamiento térmico del incinerador se realiza tanto interna como externamente, internamente el
aislamiento se logra con ladrillos refractarios de 228,6 x 114,3 x 63,5 mm los cuales se adhieren a
las paredes con un pegamento especial, luego se recubrirán los ladrillos con un friso de cemento
refractario y el recubrimiento externo se hará con fibra de vidrio recubierta con papel metalizado
de 25,4 mm de espesor.
Para monitorear la temperatura dentro del incinerador a todo lo largo del proceso se usan
termopares tipo K de acero inoxidable con intervalos de temperatura de -200 a 1.371°C, la
temperatura se registra en un panel de control.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
89
3.3. Descripción de las especificaciones teóricas de operación
El sistema de incineración trabaja según el esquema mostrado en la Figura 3, en la cual se
observa que el mismo consta de las siguientes etapas: inyección de aire y encendido del sistema,
carga de los desechos e incineración y post combustión y análisis de los gases.
A
Inicio
Inyección
de aire
No
Combustión de
desechos
Fluidización
del lecho
Si
Arrastre
de
partículas
Si
No
Inyección de
Combustible
Encendido del
incinerador
No
T emperatura
dentro del
incinerador
850C
Combustión de
gases a 800C
por 2 seg
Enfriamiento de
gases por debajo
de 200C con agua
Si
Trituración de
desechos
Entrada de
desechos
Análisis de
gases
A
Fin
Figura 3. Flujograma de la operación del incinerador de lecho fluidizado.
El material de soporte o de lecho seleccionado es arena, debido a que es fácil de fluidizar, es
estable y conserva sus características a altas temperaturas y la operación se realiza bajo
condiciones específicas de altura estática del lecho de arena de 0,15 a 0,20, y tamaño promedio
de la partícula de arena entre 0,3 y 0,6 mm y con flujo de gas y aire constante, tal como se indica
en el Tabla 4.
-1
Tabla 4. Especificaciones de operación definidas para el diseño del incinerador de FAGRO para 1 t.hr .
Temperatura de operación (°C)
850 – 1.100
Tiempo de residencia (min)
3
Altura estática de lecho (m)
0,15 – 0,20
Exceso de aire (%)
5 -10
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
90
3.3.1. Inyección de aire
El arranque de la operación del sistema se realiza mediante la inyección de aire para fluidizar el
lecho, una vez fluidizado se hace pasar el combustible y se enciende mediante un generador de
chispas cerámico. Una vez que el lecho de arena alcanza la temperatura de 850 °C, los desechos
se incorporan al incinerador a través de un transportador sin fin por una ventana de alimentación
en la parte lateral del mismo. La introducción de los desechos será dosificada por dos compuertas
para evitar que los desechos se enciendan antes de entrar al incinerador y generar un efecto en
cadena quemándose el transportador sin fin.
3.3.2. Combustión de desechos
Después de mezclarse las partículas volátiles, éstas se queman en lo que se conoce como
combustión homogénea o combustión de fase gas. El material residual se queda en el lecho y su
combustión, por lo general, involucra tres procesos: a) intercambio de gas entre las burbujas y la
fase de partículas (que depende del tamaño de la burbuja), b) difusión de los gases que forman
parte de la reacción hacia y desde la superficie de la partícula, la cual depende del tamaño de la
misma, y c) reacción química en la superficie de la partícula, y que están en función de la
temperatura del sistema.
3.3.3. Toma de datos
Durante la operación del incinerador se lleva a cabo un registro de los diversos parámetros de
operación y fluidización (velocidad de fluidización, flujo de combustible, presión y temperatura en
diversos puntos del incinerador) a través de los orificios que se realizaron en cada sección del
incinerador.
3.3.4. Combustión de gases
Los gases productos de la combustión se hacen pasar por un ciclón donde por gravedad se
recogen los desechos sólidos sin incinerar y la arena arrastrada (en el supuesto de que llegara a
ocurrir), por otro lado los gases de la combustión deben pasar por una segunda cámara de
combustión con un tiempo de residencia de al menos dos segundos a una temperatura mínima de
850 °C (Environmental Protection Agency,1992) con la finalidad de reducir la emisión de
contaminantes. Posteriormente los gases antes de salir a la atmosfera son enfriados en la
chimenea por debajo de los 200 °C con chorros de agua para evitar la formación de dioxinas y
furanos. Adicionalmente se analizan los gases de la combustión (CO, SO2, NOx, O2) a la salida de
la chimenea con un analizador de gases comercial.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
91
4. Discusión
Se seleccionó la forma cilíndrica ya que es la más utilizada y recomendada para el diseño del
incinerador de lecho fluidizado en la literatura revisada (López y Bautista, 2001; Vélez et al.,
2009), con la notable excepción de Zhang et al., (2009) quienes utilizaron un dispositivo
rectangular; de igual manera la elección de acero al carbono y acero inoxidable como materiales
para la construcción obedece a que son los más frecuentemente utilizados y recomendados en la
literatura porque resisten adecuadamente las altas temperaturas de operación del sistema (López
y Bautista, 2001; Vélez et al., 2009).
La temperatura de operación del incinerador debe estar entre 850 y 1.100 °C, ya que con ello se
asegura la destrucción casi completa de los compuestos orgánicos en el desecho (Air & Waste
Management Association; 1992), por otra parte, el tiempo de residencia es de tres (3) minutos
según lo establece Prieto (s. f.) ya que con ese valor de tiempo aumenta la probabilidad de que
tengan lugar las reacciones de desulfuración, y que cumplan con los límites de emisiones
máximos mostrados en la Tabla 1.
El diseño del plato distribuidor se realizó considerando las investigaciones de (López y Bautista,
2004; Vélez et al., 2009; Zhang et al., 2009; Bautista et al., 2004; López et al., 2008; Gogebakan y
Selçuk, 2009), quienes indicaron que este diseño ha resultado adecuado y eficiente.
Dado que el aire para fluidizar el lecho será suministrado por un compresor siguiendo la
recomendación de López y Bautista (2004), y como el diseño se realizó basado en velocidades
mínimas y por lo tanto, en caudales mínimos de operación, al seleccionar el compresor es
necesario tomar en cuenta este factor y seleccionarlo de tal forma que entregue un caudal por
encima de este valor de diseño, además que se necesita añadir más aire para cumplir con el
exceso de aire de 5 a 10% necesario para alcanzar la oxidación óptima del combustible y evitar la
formación de CO, ya que el control de la combustión y la reducción de las emisiones a la
atmósfera en un incinerador de lecho fluidizado dependen de factores como la materia prima, el
material de soporte, y los mecanismos de inyección y evacuación de los gases. Al respecto, López
et al. (2008) mencionan que existe una correlación entre la temperatura, el tiempo de residencia y
el grado de emisión. Hasfelriis (1987) y Wang (1993) han registrado que ciertas condiciones de
operación minimizan la formación de CO y reducen la emisión de dioxinas y furanos. Por su parte,
Wiley (1987) sugiere como mínimo un nivel de oxígeno de 1 a 2% en volumen, involucrando un
incremento de 5 a 10% de exceso de aire al sistema, para con ello alcanzar la oxidación óptima
del combustible y evitar la formación de monóxido de carbono (CO).
La razón de enfriar bruscamente el gas por debajo de 200 °C y así evitar la formación de dioxinas
y furanos de novo, es que estos compuestos tienen la capacidad de formarse nuevamente cuando
el gas se enfría lentamente entre 200 y 400°C (Romero, 2001). Es importante destacar que para el
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
92
correcto funcionamiento del sistema el material a incinerar debe estar previamente desmenuzado,
tal como lo sugieren Lopez et al. (2008)
La importancia del aislamiento térmico obedece al hecho de evitar o minimizar las pérdidas de
calor, las cuales afectan la eficiencia de la combustión (López y Bautista, 2004; Bautista et al.,
2004; López et al., 2008), si bien los autores mencionados solo calculan la eficiencia de la
combustión, López et al. (2008), pero no realizan cálculos de pérdidas, aun así recomiendan el
aislamiento para mejorar la eficiencia.
Se utilizó el soporte de lecho de arena basado en las investigaciones de López y Bautista (2004),
Bautista et al. (2004), López et al. (2005), López et al. (2008), Gogebakan y Selçuk (2009), Zhang
et al. (2009), y por la compañía suiza Von Roll Inova (Balogh y Nollet, 2008), quienes lo
recomiendan por su facilidad para fluidizar, estabilidad y resistencia a las altas temperaturas,
asimismo, el diseño del lecho de arena se realizó siguiendo las recomendaciones de Prieto (s. f.) y
López y Bautista (2004).
5. Conclusiones y recomendaciones
El incinerador de lecho fluidizado constituye una alternativa para el manejo de residuos de fácil
construcción, manejo y mantenimiento, ya que con el uso del incinerador se consigue una
reducción muy alta de los desechos sólidos (70% en peso y hasta 90% en volumen), con una baja
emisión de gases de la combustión (CO, SO2, NOx, O2) y evitando la liberación de dioxinas y
furanos.
El material de soporte para el lecho más adecuado, resultó ser la arena de sílice, aunque es
posible que dependiendo de la disponibilidad, puedan utilizarse otras arenas, cenizas, piedra
caliza entre otros materiales, siempre que cumplan con los requerimientos de diseño. Los
materiales utilizados para su construcción pueden adquirirse fácilmente en el mercado local, lo
cual redunda positivamente en la facilidad y costo de construcción del incinerador.
Si bien el incinerador del presente trabajo se diseñó para residuos orgánicos, principalmente
vegetales, el mismo podría utilizarse para casi todo tipo de residuos, y aunque las dimensiones del
incinerador diseñado en el presente trabajo (514 mm de diámetro y 6.650 mm de alto), permitirán
una eliminación adecuada de 1 t.hr-1 de los residuos que se generan en FAGRO de la Universidad
Central de Venezuela, localizada en Maracay, estado Aragua, Venezuela, este diseño puede ser
fácilmente modificado y adaptado para otros valores de flujo másico de residuos distintos al de
diseño (1 t.hr-1) aplicando las ecuaciones y los procedimientos utilizados en el presente trabajo,
empleando un rango de velocidades mínimas de fluidización que va desde 225 m.h-1 hasta 720
m.h-1.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
93
Bibliografía
Air & Waste Management Association. (1992). Air pollution engineering manual. New York: Van
Nostrand Reinhold.
Balogh, S. J., y Nollet, Y. H. (2008). Mercury mass balance at a wastewater treatment plant
employing sludge incineration with offgas mercury control. Science of the total environment.
389(1), 125-131.
Bautista Margulis, R. G., López Ocaña, G., y Torres Balcázar C. A. (2004). Tratamiento térmico de
residuos sólidos municipales en un combustor experimental de lecho fluidizado. Trabajo
presentado en Semana de Divulgación y Video Científico. Universidad Juárez Autónoma de
Tabasco. Villahermosa, México.
Coltters, R., y Rivas, A. L. (2004). Minimum fluidation velocity correlations in particulate systems.
Powder Technology. 147(1-3), 34-48.
Fondo de Población de las Naciones Unidas. (2011). Estado de la población mundial. New York,
NY: UNFPA.
Gogebakan, Z., y Selçuk¸ N. (2009). Trace elements partitioning during co-firing biomass with
lignite in a pilot-scale fluidized bed combustor. Journal of Hazardous Materials. 162(2-3);
1129–1134.
Hasselriis, F. (1987). Optimization of combustion conditions to minimize dioxin emissions. Waste
Management & Research. 5, 311-326.
International Carbon Bank & Exchange. (2000). Calculating greenhouse gases. Recuperado de:
http://www.icbe.com/emissions/calculate.asp.
Kumar, D. (1999). Condiciones técnicas y riesgos de la incineración. Recuperado de:
http://www.bvsde.paho.org/bvsacd/acodal/x.pdf.
López Ocaña, G., Bautista Margulis, R. G., Hernández Barajas, J. R., Saucedo Terán, R. A., y
Rubio Arias, H. O. (2008). Combustión de residuos sólidos municipales en un sistema de
lecho fluidizado experimental. Universidad y Ciencia. 24(2), 89-100.
López Ocaña, G., Bautista Margulis, R. G., y Focil Monterrubio, R. L. (2005). Combustión de lecho
fluidizado aplicado al tratamiento térmico de residuos sólidos municipales generados en
Villahermosa, Tabasco. Trabajo presentado en Semana de Divulgación y Video Científico.
Universidad Juárez Autónoma de Tabasco. Villahermosa, México.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
94
López Ocaña, G., y Bautista Margulis, R. G. (2004). Diseño de un combustor experimental de
lecho fluidizado para la incineración de residuos sólidos municipales. Trabajo presentado en
Semana de Divulgación y Video Científico. Universidad Juárez Autónoma de Tabasco.
Villahermosa, México.
Organización Panamericana de la Salud. (2005). Informe de la evaluación regional de los servicios
de manejo de residuos sólidos municipales en América Latina y el Caribe. Washington, D.C.:
OPS.
Organization for Economic Co-operation and Development. (2005). OECD Environmental data:
compendium 2004. París: OECD Publishing.
Potter, M. C., y Wiggert, D. C. (1998). Mecánica de fluidos. México: Prentice Hall.
Pöykiö, R., Rönkkömäki, H., Nurmesniemi, H., Perämäki, P., Popov, K., Välimäki, I., y Tuomi T.
(2009). Chemical and physical properties of cyclone fly ash from the grate-fired boiler
incinerating forest residues at a small municipal district heating plant (6MW). Journal of
Hazardous Materials. 162(2-3), 1059-1064.
Prieto, I. (s. f.). Centrales térmicas. Sistemas de combustión de lecho fluido. Recuperado de:
http://ocw.uniovi.es/pluginfile.php/1011/mod_resource/content/1/1C_C12757_0910/04_GT13
_Centrales_termicas_de_lecho_fluido.pdf.
Reis, M. F., Sampaio, C., Brantes, A., Aniceto, P., Melim, M., Cardoso, L., Gabriel, C., Simão, F.; y
Pereira Miguel, J. (2007). Human exposure to heavy metals in the vicinity of Portuguese
solid waste incinerators. Biomonitoring of Pb, Cd and Hg in blood of the general population.
International Journal of Hygiene and Environmental Health. 210(3-4), 439–446.
Romero Salvador, A. (2001). Incineración de residuos sólidos urbanos. Recuperado de:
http://www.icp.csic.es/cyted/Monografias/Monografias1998/C2-315.pdf.
Tryger Ltda. (s. f.). Bonos de carbono. Recuperado de: http://www.trygerltda.cl/.
USA. Environmental Protection Agency. (1992). Control techniques for volatile organic emissions
from stationary sources. Report EPA 453/R-92-018. Research Triangle Park, NC:
Environmental Protection Agency.
Vélez, J. F., Chejne, F., Valdés, C. F., Emery, E. J., y Londoño, C. A. (2009). Co-gasification of
Colombian coal and biomass in fluidized bed: An experimental study. Fuel. 88(3), 424–430.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
95
Venezuela. República de Venezuela. (1995). Gaceta Oficial de la República de Venezuela, N°
4899. (Extraordinaria). Decreto N° 638 de 26 de abril de 1995. Normas sobre calidad del
aire y control de la contaminación atmosférica. Caracas: República de Venezuela.
Wang, W. (1993). Emission control hardware cost in California. Report 80144. Toronto: Ontario
Hydro.
Wiley, S. K. (1987). Incinerate your hazardous waste. Hydrocarbon Processing. 66(6); 51-54.
Zhang, Y., Jin, B., y Zhong, W. (2009). Experimental investigation on mixing and segregation
behavior of biomass particle in fluidized bed. Chemical Engineering and Processing:
Process Intensification. 48(3), 745–754.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 81 - 95
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/05/25
Aceptado (Accepted): 2015/09/15
CC BY-NC-ND 3.0
Composición y diversidad de especies arbóreas en transectos
de localidades del bosque siempreverde de tierras bajas del
Ecuador
(Composition and diversity of tree species in transects of
location lowland evergreen forest of Ecuador)
Jorge Caranqui A.1
Resumen:
El estudio se realizó en 9 transectos de 1000m2 de bosque siempreverde de tierras bajas,
ubicado en dos localidades de la Costa y una en el oriente ecuatoriano. Se planteó contribuir al
conocimiento de la diversidad y composición de plantas arbóreas mayores de 10 cm de
diámetro a la altura del pecho (DAP), además de inferir el estado de conservación de los
bosques en base en la composición, el número de especies, índices de diversidad y valor de
importancia (IV) localizadas en 9 transectos de 1000 m² de bosque. Se encontraron 156
especies, 107 géneros y 39 familias distribuidas en los 9 transectos, en cada uno la diversidad
varía según el índice de diversidad de Simpson de 0.95-0.88, en este caso todos son diversos
porque se aproxima a 1. La mayoría de las especies no están presentes en todos los
transectos, el índice de valor en cada transecto no sobrepasa el 40%. Agrupando los
transectos coinciden con las tres localidades efectuadas a excepción del transecto 5 y 8 que
fueron realizados en sitios perturbados, es decir la mayoría de transectos tienen una
perturbación intermedia por eso sus altos índices de diversidad.
Palabras clave: Bosque siempreverde, biodiversidad, similitud
Abstract:
The study was conducted in 9 transects 1000m2 of lowland evergreen forest, located in two
locations on the coast and one in eastern Ecuador. It was to contribute to knowledge of the
diversity and composition of woody plants over 10 cm diameter at breast height (DBH) plus infer
the state of conservation of forests based on the composition, the number of species, indices
diversity and importance value (IV), found in 9 transects of 1000 m² of forest: 156 species, 107
genera and 39 families distributed in 9 transects, in each one the Simpson diversity index is of
0.92 to 0.95, in this case are diversity because all approaches 1. Most were found species
aren´t present in all transects, the index value in each transect does not exceed 40%. Grouping
transects match three locations exception made to transect 5 and 8 were conducted in disturbed
sites, the most transects are intermediate disturbance that their high levels of diversity.
Keywords: Lowland evergreen forest, biodiversity, similarity
1. Introducción
El bosque siempreverde de tierras bajas clasificado por Harling (1986) como bosque lluvioso de
las tierras bajas, cubre el norte de las tierras bajas de la costa del Pacífico bajo los 700 m de
elevación, la mayor parte de Esmeraldas, las áreas adyacentes de la provincia de Pichincha y
áreas pequeñas del norte de Manabí y Los Ríos. Este tipo de vegetación también cubre
1
Escuela Superior Politécnica del Chimborazo, Riobamba - Ecuador ([email protected])
97
virtualmente todas las tierras bajas de la Amazonía al este de los Andes. También se caracteriza
por un clima con una precipitación anual por sobre los 3000 mm., y carece de una estación seca
marcada (es decir, generalmente no más de un mes con menos de 100 mm de precipitación). Este
es el tipo de vegetación más extenso en el país, que cubre más de un tercio del Ecuador
continental (Neill 1999).
El bosque siempreverde de tierras bajas es alto, denso y siempre verde, con el dosel
frecuentemente de 30 m., o más de altitud y una diversidad alta de especies. La diversidad alfa de
los árboles, como se muestra en las parcelas permanentes de una hectárea, es más alta en la
Amazonía ecuatoriana que en el área del bosque lluvioso en el norte de la costa del Pacífico
(Neill, 1999). El bosque siempreverde de tierras bajas del noroeste del Ecuador es muy similar al
de la región del Chocó colombiano de la costa del Pacífico y comparte muchas especies, pero hay
también un elemento significativo de especies endémicas que no se conocen al norte de la
frontera colombiana (Neill, 1999); muchas especies están también distribuidas en los bosques
húmedos de la Amazonía y/o en América Central (Valencia et al., 1998).
Por lo manifestado anteriormente, el objetivo de este trabajo es contribuir al conocimiento de la
composición y diversidad de especies leñosas mayor de 10 cm de diámetro a 1.30 m sobre el
suelo (DAP), encontrada en 9 transectos (unidades muestreales) del “bosque lluvioso de tierras
bajas, en dos localidades de la Costa y una en la Amazonía basados en el “IV” (índice de valor),
diversidad y similitud.
2. Materiales y métodos
2.1. Área de estudio
El presente estudio se realizó en 3 localidades (tabla 1) de la Costa y de la Amazonía ecuatoriana
que pertenece a la formación de “bosque siempreverde de tierras bajas” (Sierra, 1999).
Tabla 1. Ubicación geográfica de los transectos en estudio.
TRANSECTO ALTITUD msnm)
COORDENADAS
PROVINCIA CANTÓN
LOCALIDAD
T1-T5
200
00°35´S, 79°21´W
Los Ríos
Buena Fé
Río Palenque
T6-T8
240
00º08' S, 76º45'W
Sucumbios
Shushufindi Incinerox
T9
400
02°17’S, 79° 05´W
Chimborazo Cumandá
Chilicay
2.2. Toma de datos
Durante el 2012 y 2013, se procedió a inventariar 9 transectos de 1000 m2, en forma de zig-zag
cada uno con cinco líneas de 50x4 m cada una con rumbo al Norte (Caranqui, 2011); (Cerón
,2003); (Phillips, 2002), ubicados dentro de las zonas de estudio, éstas zonas se escogieron por
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
98
las facilidades brindadas por sus propietarios. Se midieron todos los árboles iguales o mayores a
10 cm de DAP. Se colectaron especímenes de los individuos fértiles. Las muestras se prensaron y
fueron secadas e identificadas por el autor en el Herbario de la Escuela Superior Politécnica de
Chimborazo (CHEP), y verificado la información en Jorgensen (1999) y en la base de datos
(Missouri Botanical Garden).
2.3. Análisis de datos
Se realizaron los siguientes cálculos (Cerón, 2003):
Área Basal (AB)
π(D)2
AB =
4
Donde
AB = Área basal
D = DAP [Diámetro a la altura del pecho (1.30m.)]
π = 3.1416(constante)
Densidad = Número de árboles en la parcela
Densidad Relativa (DR)
DR =
# de árboles de una especie
× 100
# árboles en la parcela
Dominancia Relativa (DMR)
𝐷𝑀𝑅 =
á𝑟𝑒𝑎 𝑏𝑎𝑠𝑎𝑙 𝑑𝑒 𝑢𝑛𝑎 𝑒𝑠𝑝𝑒𝑐𝑖𝑒
× 100
á𝑟𝑒𝑎 𝑏𝑎𝑠𝑎𝑙 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑝𝑎𝑟𝑐𝑒𝑙𝑎
Índice de Valor (IV)
𝐼𝑉 = 𝐷𝑅 + 𝐷𝑀𝑅
Además en cada uno de los transectos con sus respectivas frecuencias se obtuvieron: riqueza,
diversidad (índice de Simpson), e índice de similitud (Bray Curtis, 1957), calculados en el
programa PAST.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
99
Según (Golicher, 2012), la fórmula para el índice de Simpson es:
Donde S es el número de especies, N es el total de organismos presentes (o unidades cuadradas)
y n es el número de ejemplares por especie.
En la ecología y la biología , la disimilitud Bray-Curtis (1957), es una estadística que se usa para
cuantificar la disimilitud en la composición entre dos sitios diferentes, basadas en conteos en cada
sitio. Según la definición de Bray y Curtis, el índice de similitud:
Donde
sitios.
es la suma del valor menor para únicamente aquellas especies en común entre ambos
,y
son el número total de especímenes contados en ambos sitios.El índice se reduce
a 2C / 2 = C, donde la abundancia en cada sitio se expresan como un porcentaje. El tratamiento
adicional se puede encontrar en Legendre y Legendre. La disimilitud de Bray-Curtis está
directamente relacionada con el índice de similitud de Sørensen
entre los mismos sitios:
.
La disimilitud de Bray-Curtis está obligado entre 0 y 1, donde 1 significa que los dos sitios tienen la
misma composición (es decir que comparten todas las especies), y 0 significa que los dos sitios no
comparten ninguna especie. En los sitios con donde AC es intermedia (por ejemplo, AC = 0,5)
este índice se diferencia de otros índices comúnmente utilizados.
3. Resultados
3.1. Composición florística
En total se obtuvo 156 especies,107 Géneros y 39 familias, las familias con más especies son:
Moraceae con 18, Fabaceae con 16 especies, Urticaceae con 12, Meliaceae con 10, Rubiaceae
con 8, Euphorbiaceae con 7, Arecaceae , Myristicaceae, Sapotaceae y Melastomataceae con 6;
el resto de familias con valores menores. Estas diez familias mencionadas (de las 39 familias en
total), contienen 95 especies es decir el 60.89% del total de familias.
En la Tabla 2 se encuentra las treinta especies con mayores índices de valor (IV), distribuidas en
los 9 transectos, en la mayoría de los casos no se repiten las especies en los transectos, las
especies que lo hacen
con mayor frecuencia son: Ficus tonduzii Standl., Guarea kunthiana
A.Juss, en 5 de los 9, Trichilia pleeana (A.Juss.) C.DC., en dos de los 9 transectos pero con
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
100
valores mayor de 25% “IV”, El resto de especies no tienen representabidad en menos del 20% de
los transectos en estudio.
Tabla 2. Listado de especies con sus respectivos índices de valor de importancia (IV) en los 9 transectos:
T1-T5: Río Palenque; T6-T8: Shushufindi; T9: Chilicay.
Familias
Especies
T1
T2
T3
T4
T5
T6
T7
T8
T9
Meliaceae
Trichilia pleeana (A.Juss.) C.DC.
0
Moraceae
Ficus tonduzii Standl.
Urticaceae
Moraceae
0
0
0
0
30,3 24,8 0
0
15,4 8,21 3,5
4,57 0
4,16 16,5 0
0
Cecropia sp. 2
0
0
0
0
Castilla elástica Sessé
0
0
12,4 22,4 0
Cannabaceae Trema micranta (l.) Blume
0
0
27,4 0
Fabaceae
Erytrina edulis Triana ex Micheli
0
10,7 0
Sapotaceae
Pouteria sp.
Urticaceae
0
0
0
0
0
0
0
0
0
0
0
0
11,3 0
0
0
0
3,45 16,9 0
0
0
0
0
0
0
Cecropia sciadophylla Mart.
0
0
0
18,2 0
0
0
0
0
Malvaceae
Ceiba pentandra (L.) Gaertn.
0
0
0
0
0
0
0
17,7 0
Fabaceae
Inga edulis Mart.
0
0
0
0
0
0
0
17
Meliaceae
Ruagea pubescens (Rich.) A.Juss. 0
0
0
0
0
4,38 1,73 0
10
Moraceae
Batocarpus orinoscensis H.Karst.
0
0
0
0
0
7,38 5,44 0
2,7
Urticaceae
10,8 4,65 0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
14,1
0
0
13,4 0
0
0
0
0
0
0
0
0
0
10,1 2,06 0
0
Moraceae
Cecropia sp.
Tetrathylacium macrophyllum
Poepp.
Otoba gracilipes (A.C.Sm.)
A.H.Gentry
Dendropanax arboreus (L.) Decne.
& Planch.
Clarisia racemosa Ruíz & Pav.
0
1,65 0
4,56 3,38 0
2,5
Fabaceae
Myroxylon balsamum (L.) Harms
0
0
0
0
0
3,7
4,18 3,96 0
Meliaceae
Carapa guianensis Aubl.
0
1,46 0
0
0
0
0,53 0
9,67
Moraceae
Sorocea puvibena
0
0
0
0
0
0
0
0
11,6
Myristicaceae
Virola elongata (Benth.) Warb.
0
0
0
0
0
10,5 0
0
0,8
Urticaceae
Cecropia obtusifolia Bertol.
1,89 0
9,27 0
0
0
0
0
0
Moraceae
Maclura tinctoria (L.) Steud.
0
1,55 4,01 5,38 0
0
0
0
0
Fabaceae
Inga sp.3
1,49 6,15 1,91 1,18 0
0
0
0
0
0
0
0
10,2 0
0
0
0
0
0
0
0
0
0
0
0
9,45 0
0
0
0
0
0
0
9,4
0
0
0
9,4
0
0
0
0
0
0
Salicaceae
Myristicaceae
Araliaceae
Indeterminada Indeterminada3
Cordia alliodora (Ruiz & Pav.)
Boraginaceae
Oken
Trichilia cipo (A.Juss.) C.DC.
Meliaceae
0
39,6 0
0
0
0
0
Moraceae
Ficus macbridei Standl
0
Meliaceae
Guarea kunthiana A.Juss.
1,43 0
0
0
0
0,95 0,81 1,14 4,96
Meliaceae
Guarea ptorrahchis Harms
0
0
0
0
0
0
9,23 0
0
Con respecto al mayor valor de “IV”, pertenece a la especie Cecropia sp.2 con 39,56% que solo
está en el T5, Trichilia pleeana (A.Juss.) C.DC. con 30.32% en el T6 y 24.84 en el T7, Ficus
tonduzii Standl con el 16,47 en el T7. Como se puede apreciar entre los 10 “IV” altos solo
Cecropia sp.2 tiene valor alto en un solo transecto; si a los 10 “IV” mayores agrupamos en las
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
101
familias respectivas, tendremos que las familias más representativas son Urticaceae, Moraceae y
Fabaceae con 2 especies y el resto se distribuyen en familias como Cannabaceae, Sapotaceae,
Malvaceae y Meliaceae.
3.2. Diversidad
El listado de especies (Tabla 2) se ingresó en el programa PAST generándose el índice de
diversidad de Simpson que fluctúa de 0.92- 0.95 (Tabla 3), el cual resulta que los valores son altos
en base al número de especies e individuos en cada transecto ya que todos los valores son
cercanos a 1. En cuanto a
la relación entre el número de especies y de individuos no
encontramos un patrón común, ya que los transectos con alto número de especies e individuos no
alcanzan los altos valores del índice de diversidad.
Tabla 3. Datos de los cinco transectos con datos de abundancia y diversidad:
T1-T5: Río Palenque; T6-T8: Shushufindi; T9: Chilicay
T1
T2
T3
T4
T5
T6
T7
T8
T9
Especies
26
27
6
22
21
24
29
23
23
Individuos
42
45
35
51
64
80
101
47
70
I. Simpson
0,95
0,95
0,92
0,92
0,93
0,92
0,93
0,94
0,93
3.3. Similitud
La Figura 1 indica que hay 4 grandes grupos:1) integrado por los transectos 1-4, 2) conformado
por el T5, 3), conformado por T8; tanto el T5 y el T8 fueron tomados de sitios disturbados y 4),
conformado por T6-T7 y T9.
Hay varios subgrupos que tienen dicotomía o cierta dicotomía, generalmente se agrupan por
localidad es decir 1-4: Río Palenque, 6-7: Shushufindi, y el T9 no tiene dicotomía por ser un
transecto en localidad única; como mencionamos el T5 y T8 son muy diferentes del resto por ser
1
2
4
3
5
8
9
7
6
de sitios disturbados.
0,96
0,84
0,72
Similarity
0,60
0,48
0,36
0,24
0,12
0,00
Figura 1. Dendrograma del índice de Bray- Curtis con los 14 transectos en estudio
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
102
4. Discusión
Según Jorgensen & León Yánez (1999), la comparación de la composición de especies en las
cuatro diferentes regiones revela bajos niveles de similitud entre ellas pero la similitud más alta se
encuentra entre la Amazonía y la Costa. Por tal razón en términos generales, a nivel de familias
coiciden con los grandes grupos encontrados como Fabaceae, Moraceae, Melastomataceae,
Meliaceae, Rubiaceae, Urticaceae (Cecropia), Euphorbiaceae y Arecaceae coincidiendo con otros
estudios: Cerón (1997), Balslev (1987), Romero et-al (2001), Phillips (2003), Bonifaz & Cornejo
(2004).
Los valores del “IV” no superan el 40%, esto puede suponer que las especies se encuentran
distribuidas por todo el bosque pero, como ocurre en toda comunidad diversa, su abundancia es
poco equitativa (Hubbell & Foster, 1992).
El índice de Simpson indica la relación entre riqueza o número de especies y la abundancia o
número de individuos por especies en cualquier sitio dado (Moreno, 2001; Smith & Smith, 2003);
excepto para el caso de unas pocas especies de una comunidad no hay ninguna relación entre la
riqueza de una comunidad (número de individuos) y su diversidad En los transectos en estudio
obtuvimos índices que van de 0.92 a 0.95 que es una diversidad alta como en Conditt (2002),
Romero (2001), Pitman (2001) y Valencia (2004). La “hipótesis de la perturbacion intermedia” en
Rabinowrtz (1986), propone que en términos de la composición de especies una comunidad
nunca alcanza el equilibrio y que una alta diversidad es el resultado de un constante cambio en
las condiciones del ecosistema. El modelo de la perturbación intermedia postula que la diversidad
de especies alcanza su máximo cuando las perturbaciones ocurren a frecuencias e intensidades
“intermedias”; es decir a perturbaciones intermedias mayor diversidad, es por ello que en las
zonas de estudio se pudo observar bosque secundarios con distinto grado de conservación que se
han agrupado en menor o mayor grado excepto el T5 y T8 que son bosques disturbados lo
corrobora el dendrograma de Bray Curtis (Fig.1).
A comparación de otros ecosistemas en el Ecuador, los bosques húmedos tropicales amazónicos
tienen muchos estudios, pero la mayoría de ellos es en base a parcelas permanentes de 1 Ha (Ter
teege et-al 2013; Conditt et-al 2002; Valencia et-al 2004). Cuando se popularizaron los estudios
de diversidad de bosques en el Ecuador la metodología empleada fue diseñada por Alwin Gentry
(Phillips 2003), que despertó el interés para hacer estudios de mayor tamaño; no por esto
deberían ser desestimados actualmente los estudios de transectos (Caranqui, 2011), ya que
1000m² es un área mínima para encontrar información importante sobre ecología de los bosques
amazónicos (Romero, 2001; Phillips, 2003), es ideal hacer parcelas de 1Ha, pero ello conlleva a
mayor recursos. En este estudio se ha confirmado que los datos cuantitativos (familias), y
conceptos ecológicos coiciden con los datos en las que se ha realizado en una hectárea.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
103
5. Conclusiones y recomendaciones
La biodiversidad de los transectos según el índice de diversidad de Simpson es alto entre los
transectos estudiados (0.87-0.95). Pero al comparar los transectos con las especies y sus valores
los transecto 5 y 8 son diferentes al resto de transectos; esto se debe a la perturbación intermedia
que sufren estos bosques.
Con los resultados presentados la familia Fabaceae tienen los mayores valores y coinciden con
los estudios existentes de este tipo de bosque.
Agradecimientos
Doy fe de agradecimiento a las siguiente personas que colaboraron con la realización de este
documento: Blgo. Fredy Villao, Dr. Bryan Maclaren, Blgo Xavier Cornejo , Dr. Tim McDowel, Ing.
Marcelo Pino, Msc. Alina Freire, estudiantes de Maestría Forestal UTEQ 2012.
Bibliografía
Balslev, H., Luteyn, J., Øllgaard, B., & Holm-Nielsen, L. B. (1987). Composition and structure of
adjacent unflooded and floodplain forest in Amazonian. Ecuador.Opera Botanica, 92, 37-57
Bonifaz, C., y X. Cornejo. (2004). Flora del bosque de Garúa en Loma Alta. Universidad de
Guayaquil. Páginas: 8-17
Bray, J. R & , J. T.Curtis. (1957). An ordination of the upland forest communities of southern.
Wisconsin.
Ecological monographs, 27(4): 325-349
Caranqui, J. (2011). Estudios básicos de bosques montanos en el centro del Ecuador. Editorial
Académica Española. 67 páginas. Publicado en Alemania.
Cerón, C.E., (2003). Manual de Botánica ecuatoriana: Sistemática y Métodos de estudio”. Facultad
de Filosofía. Letras y Educación. Universidad Central del Ecuador. Quito – Ecuador. Pp.281282.
Cerón, C. E., & Montalvo, C. (1997). Composición y estructura de una hectárea de bosque en la
Amazonía Ecuatoriana, con información etnobotánica de los Huaorani. Estudios
sobre
diversidad y ecología de plantas. Pontificia Universidad Católica del Ecuador publicaciones.
Quito, 153-172.
Condit, R., Pitman, N., Leigh, E. G., Chave, J., Terborgh, J., Foster, R. B., ... & Hubbell, S. P.
(2002). Beta-diversity in tropical forest trees. Science, 295(5555), Pp.666-669.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
104
Denslow, J.S.. (1985). Disturbance mediated coexistence os species. En The ecology of natural
disturbance and patch dynamics(307-323). USA: Academic press.
Golicher, D . (2012). ¿Cómo cuantificar
la diversidad de especies?. Tomado de:
http://www.dfpd.edu.uy/cerp/cerp_norte/cn/Biologia/BIODIV/Como%20cuantificar%20la%20d
iversidad,%20algunos%20ejercicios.pdf
Hubell, S.P. and
R.B. Foster.( 1992). Short-term dynamics of a
neotropical forest: whith
ecological research matters to tropical conservation and management. Oikos 63: 48- 54.
Jørgensen, P. M . and S. León-Yánez. (1999). “Catalogue of the vascular plants of Ecuador”.
Missouri Botanical Garden.
MacArthur,
R.
H.,
&
E.
O.
Wilson.
(1963).
An
equilibrium
theory
of
insular
zoogeography. Evolution, 17(4), 373-387.
Missouri Botanical Garden. (2013, Nov.)
Base de datos trópicos. (En línea). Disponible en
htpp://www.tropicos.org.
Moreno, C.E. (2001). Métodos para medir la Biodiversidad. M & T- Manuales y Tesis SEA, vol. ¡.
Zaragoza- España.. 84 pag.
Neill, D. Vegetación. (1999). En Catálogo de plantas vasculares del Ecuador, J.Jorgensen &
S.León-Yañez (ed.). (2002). Saint Louis Missouri. P. 13-17
Phillips, O.,
and J. S. Miller. (2002). Global patterns of plant diversity: Alwyn H. Gentry's forest
transect data set. Monographs in Systematic Botany from the Missouri Botanical Garden
89: 1–319.
Pitman, N. C., Terborgh, J. W., Silman, M. R., Núñez V, P., Neill, D. A., Cerón, C. E., & Aulestia, M.
(2001). Dominance and distribution of tree species in upper Amazonian terra
firme
forests. Ecology, 82(8),Pp.: 2101-2117.
Rabinowrtz, D., Cairns, S., & Dillon, T. (1986). Seven kinds of rarity,pags. 182-204. In
M.E.Soule(Editor). ConservationBiology.Sinauer,Sunderland,Massachuses.RZ.
Romero-Saltos, H., Valencia, R., & Macía, M. J.( 2001). Patrones de diversidad, distribución y
rareza de plantas leñosas en el Parque Nacional Yasuní y la Reserva Étnica Huaorani,
Amazonía ecuatoriana. Evaluación de productos forestales no maderables en la Amazonıa
noroccidental, 131-162.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
105
Sierra, R. (1999). “Propuesta Preliminar de un Sistema de Clasificación de Vegetación para el
Ecuador Continental”. Quito – Ecuador. Pp.63-64
Smith, L and T. Smith. (2001). Ecología. Pearson Education. Madrid.. Pag. 664.ter Steege, H.,
Pitman, N. C., Sabatier, D.,
Baraloto, C., Salomão, R. P., Guevara, J. E.,& Fine, P. V.
(2013). Hyperdominance in the Amazonian tree flora. Science, 342(6156).
Valencia, R., H., Balslev, W., Palacios, D., Neill., C. Josse., M. Tirado & F. Skov. (1998).
Diversity and family composition of tress in different regions of Ecuador: a sample of 18 onehectare plots. Pp 569–584. En F. Dallmeier and J. A. Comiskey(eds.). Forest Biodiversity in
North,Central and South America and the Carribean: Research and Monitoring.Man and the
Biosphere Series 21. Unesco and The Parthenon Publishing Group.Carnforth.
Valencia, R., Foster, R. B., Villa, G., Condit,
R., Svenning, J. C., Hernández, C., & Balslev, H.
(2004). Tree species distributions and local habitat variation in the Amazon: large forest plot
in eastern Ecuador. Journal of Ecology, 92(2),Pp.: 214-229.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 96 - 105
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/07/23
Aceptado (Accepted): 2015/09/21
CC BY-NC-ND 3.0
Real-Time Embedded Control System for a Portable
Meteorological Station
(Sistema de Control Embebido en Tiempo Real para una
Estación Meteorológica Portátil)
Marcelo Moya1, Gonzalo Guerrón1, Andrés Montero1
Abstract:
The aim of this work is to design and code an embedded system for a portable automatic
weather station. The portable station includes high performance sensors to measure
parameters such as: i) wind speed and direction, micro perturbations and wind gusts, ii) air
temperature, iii) solar radiation, iv) relative humidity, and v) atmospheric pressure. The main
contribution of this work is the development of an embedded control system operating in real
time. This system is based on a Field Programmable Gate Array (FPGA) device. The method
developed guarantees high-resolution data acquisition of a number of samples in real time. The
samples obtained are grouped and stored in a database, which will be used as a starting point
for further analysis.
Keywords: FPGA, Real Time, embedded, FIFO, resolution, meteorology, Butterworth.
Resumen:
El objetivo de este trabajo es diseñar y programar un sistema embebido para una estación
meteorológica automática portátil. La estación portátil incluye sensores de alto rendimiento para
medir parámetros tales como: i) la velocidad y dirección del viento, micro perturbaciones y
ráfagas de viento, ii) la temperatura del aire, iii) la radiación solar, iv) la humedad relativa, y v) la
presión atmosférica. La principal contribución de este trabajo es el desarrollo de un sistema de
control embebido que opera en tiempo real. Este sistema se basa en un sistema de compuertas
lógicas programables en campo (FPGA). El método propuesto garantiza la adquisición de datos
a alta resolución de un número de muestras en tiempo real. Las muestras obtenidas se
agrupan y se almacenan en una base de datos, que será utilizado como punto de partida para
su posterior análisis.
Palabras clave: FPGA, Tiempo Real, embebido, FIFO, meteorología, Butterworth.
1. Introduction
Ecuador faces the lack of high quality meteorological data due to the outdated equipment and
obsolete methods for data analysis. In order to solve this problem, the National Institute of
Meteorology and Hydrology (INAMHI) is implementing a campaign for replacing conventional
weather stations with new equipment; however, the replacement cannot be completed in a short
period of time covering the whole country. It is also imperative to include data transmission devices
in most of the new stations, to have a faster access to collected data and to analyze data through
new control methods.
1
National Institute of Energy Efficiency and Renewable Energy (INER), Quito – Ecuador ( {marcelo.moyal,
gonzalo.guerron, andres.montero} @iner.gob.ec )
107
According to INAMHI (INAMHI, 2014), the national network of weather stations counts with 519
meteorological stations in Ecuador, of which 41% use pluviometers, a 29% of the stations are
employed for climatology, and a merely 2% are used for agro meteorological research (13
stations). It is important to emphasize that an important public network of automatic meteorological
stations exists at the south of the country, in the provinces of Loja, El Oro and Zamora Chinchipe.
Unfortunately most of these stations are out of service, in technical obsolescence state, or they are
insufficient for satisfying the country needs.
According to Popa (2011) there are a variety of solutions for climate monitoring. The classic
solution consists of static meteorological stations that collect data and later to submit data by wired
systems to a main station. The problem with this approach is that it needs constant maintenance
and supervision. Another solution is based on a network of wireless sensors that are placed in the
desired zone. These devices collect all the weather information and then transmit it to the main
base.
The most common way of monitoring meteorological variables is through the use of Automatic
Weather Stations (AWS) (Abbate, Avvenuti, Carturan, & Cesarini, 2013), which can be used as
main platform for wireless sensors networks. With the improvement of research and development
in automatic static meteorological stations, manual stations are gradually transforming into manual
and automatic stations that can be operated easily (Jian-Ming Li, 2010). Zhen Fang (2010)
proposed a practical and economical solution that consists of a micro station that is portable, has a
small size, and brings several other benefits.
The system presented in this paper is based on Field Programmable Gate Array (FPGA) devices,
which allow programing based on logical blocks. These elements permit high-level parallel
processing and analysis of different meteorological parameters. A 16-bit analog input/output
central processing unit (CPU) was used for that purpose. The control program, that includes
filtering and signal scaling through FPGA devices, was developed in LabVIEW. This method
guarantees high-resolution and a big number of samples on the data acquisition in real time. These
samples are grouped and stored in a database, which is used as a starting point for further
analysis according to the methodology which will be established in the Section 3.1.
This paper presents in Section 2 basic definitions on FPGAs and real–time control. Section 3
provides technical details of the proposed solution. In Section 4, preliminary results and
implementation aspects are covered. Finally, the article concludes with future work.
2. Methodology
Embedded systems use automation specific functions based on programmable CPUs. The
programming of these systems can be done with different development tools. This section provides
the basis of these tools.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
108
2.1. Field programmable gate array
A Field Programmable Gate Array (FPGA) consists of a combinational array of interconnected
logic gates that can be configured after manufacturing hence field programmable. The FPGA
configuration is generally specified using a hardware description language (HDL), similar to that
used for an application-specific integrated circuit (ASIC). The digitally generated program reorders
physically the logic gates to obtain the required configuration once its compile.
The gates are connected to Look Up Tables (LUT) which are used to save processing time. Jointly
with the shift register and multiplexors, specialized high performance circuits can be developed,
heavily depending of the amount of combinational gates contained in the FPGA cells.
The current development of FPGAs technology focuses on the implementation of dedicated
functions such as: RAM memory management, signal processing blocks of high performance, high
speed memory interface, and logical blocks with arithmetic and control specific functions.
2.2. Real time control systems
The development of real–time systems allows to handling big amounts of data at high speed for
information processing, and for improving the system response, either in control and problem
solving (Giannone et al., 2011). The real time processor provides determinism in the sense that the
system is enabled to determine or predict with precision whether the program blocks are executed,
obtaining as a result a dedicated system for specific applications (Salzmann, Gillet, & Huguenin,
2000).
The LabVIEW real time (RT) processors use a FPGA to perform the data acquisition. These RT
processors are able to use all their resources in data treatment. This is possible since each FPGA
data input is configured to create First in First out (FIFO) data storage buffer which are transmitted
to the processor’s memory, and processed (Zheng, Liu, Zhang, Zhuang, & Yuan, 2014). Figure 1
shows a simplified embedded system diagram for data acquisition using FPGA and RT.
2.3. Embedded control system operating in real time
The block diagram shown in Figure 2 represents the internal operation of the control system, data
acquisition and data base storage. It also describes the interrelationships between the memory
blocks and the data buses. An embedded system that works with low energy consumption is
created to ensure continuous operation and no human supervision.
The hardware configuration is mainly conformed by an embedded system based in two
technologies: i) Field Programmable Gate Arrays (FPGA) for high speed data acquisition, and ii)
real time processing (RT) for data administration.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
109
The data acquisition is done through one analogic module and one digital module, and each
module performs the analog-digital conversion required by the FPGA. Through a Peripheral
Component Interconnect (PCI) data bus, the FPGA communicates with the real time processor
(RT). This acquires the data from the FIFO and converts them into a double data type format
achieving the format needed to perform logical operations. Wind ultrasonic sensor connects to RT
using RS-232 protocol, and the sampling is made every second.
Figure 1. Embedded system for data
acquisition with FPGA and RT
Figure 2. Block Diagram of the portable weather station
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
110
2.4. Software Functional Description
The software design is also divided into two main parts: i) FPGA, and ii) real time processor. In the
case of the FPGA, an analogical channel configuration was performed to set their voltage levels
and measurement type.
In order to start the data acquisition at different voltage levels, digital low-pass filters Butterworth
were created with a cutoff frequency of 400 mHz. This action eliminates noise from temperature
sensor, avoiding the use of physical analogical filters (reducing energy consumption) and
improving uncertainty in signal measurements.
The signal processing filter applied to the control system is fitted with the Butterworth polynomials.
In this work the four degree of Butterworth showed in Equation 1 is proposed (Paarmann, 2001).
H (s) = 1/(s4+2.613126s3+3.414213s2+2.613126s+1)
(1)
where H(s) is the cutoff amplitude in decibels (dB) and (s) is the cutoff frequency (Hz).
This model achieves high speed and precision for the acquisition and transmission of suspicious
values.
The signals of radiation, humidity, and pressure sensors are fitted based on the signal processing
filter. Data collection of each element is made through a direct access to memory (DMA). The FIFO
data storage is used to communicate FPGA and RT. This represents an increment on speed data
transmission due to the FPGA memory use and the RAM memory of the RT host.
Similarly, a specialized data acquisition and signal filtering over the FPGA processor is developed
(Cantó Navarro, 2010).
The wind data signal obtained through the ultrasonic anemometer is sent to the controller through
the RS-232 serial protocol to then choose the important information using logic digital gates. In
order to implement an edge detector, the signals are processed using digital converters and a state
machine to restart the pulse counter value to zero every ten minutes.
Finally, the stored arrangements are sent to an iterative loop to perform averages every ten
minutes of each meteorological variable recorded by the station. The data is printed out in a plain
text format that corresponds to the database which stores in the non-volatile memory of the device.
3. Results and Discussion
In order to test the real time and FPGA based control system, a portable meteorological station
shown in Figure 3 was used. A portable meteorological station should have capacity to keep up to
seven different sensors (Barrenetxea et al., 2008) as in this case. All the sensors are located on a
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
111
10–meter mast as recommended by the general standards and practices from the World
Meteorology Organization.
Figure 3. Portable meteorological station
The power supply is composed of a voltage regulator with 1V, 5V and 12V taps and a 50W
photovoltaic cell to power the entire system. The solar cell supplies 2.79A at 17.9V to a sealed 12V
and 34A rechargeable battery.
The control system implementation was performed in a cRIO 9068 CPU which includes a Field
Programmable Gate Array (FPGA) for data acquisition and a real– time processor (RT) in its own
architecture. The control algorithms were developed using the LabVIEW platform, a graphical
environment that use G programing (Chouder, Silvestre, Taghezouit, & Karatepe, 2013).
Figure 4 shows the recorded values of the sensors installed on the portable system. The stored
data corresponds to the period from July 4th to July 11th, 2014 at a temporal resolution of ten
minutes. Table 1 shows the daily average of each parameter analyzed using the proposed
approach.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
112
Figure 4. Plots of the collected data sample: Up) Pressure, global radiation, diffuse radiation,
and wind direction. Down) T0-T4 Temperature, Humidity, Pluvial precipitation and Wind speed.
Table 1. Collected data sample in a tabular representation. HUMID=Relative Humidity,
PRESS=Atmospheric pressure, G. RAD= Global radiation, DIF. RAD.= Diffuse radiation,
PRECIP=Atmospheric precipitation, W. SPEED= Wind speed, W. DIR=Wind direction
HUMID
PRESS
G. RAD
DIF. RAD.
PRECIP
W. SPEED
Date
T0
T1
Temperature (C)
T2
T3
T4
%Rh
hPa
W/m2
W/m2
mm
m/s
W. DIR
deg
04-07-14
12.94
16.78
12.78
16.85
20.09
69.39
717.08
158.12
69.88
0
1.05
203.15
05-07-14
12.96
16.73
12.72
16.76
19.99
71.05
716.39
127.68
43.97
0
1.01
189.95
06-07-14
13.53
17.23
13.41
17.29
20.11
66.84
716.08
155.95
69.62
0
1.32
161.42
07-07-14
12.86
16.53
12.61
16.59
19.9
66.21
716.85
127.02
45.05
0
1.19
200.89
08-07-14
13.51
17.13
13.36
17.15
19.68
53.79
717.35
159.21
75.33
0
1.93
228.17
09-07-14
15.05
18.49
14.87
18.54
20.21
46.65
716.12
216.04
126.15
0
2.17
219.86
10-07-14
14.28
17.64
13.86
17.73
19.46
45.78
715.43
163.96
80.14
0
1.69
223.62
11-07-14
12.81
16.06
11.87
16.2
18.16
57.07
715.13
75.27
0.75
0
1.63
273.18
The advantages of using this approach over traditional technologies are: scalability, precision, data
acquisition speed, application-oriented configuration, portability, robustness, energy supply
autonomy, and parallel programing. A deeper evaluation of our approach is currently in process.
4. Conclusions and Future Work
In this work, the programming development of a portable automatic weather station with
capabilities to measure meteorological variables was presented. The design included a sustainable
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
113
solution which is based on a photovoltaic system to ensure continuous operation and protection
against failures due to lack of energy and unexpected reboots.
In order to validate the results obtained from the proposed weather automatic station, the portable
system will be installed at the Villonaco wind farm in Ecuador where a fixed weather station is
installed. In the near future, the portable weather station will be connected to Internet in order to
broadcast the obtained information. Also an exhaustive analysis is planned using some data
mining techniques.
Acknowledgements
The authors of the present work wish to thank to Secretaría de Educación Superior, Ciencia,
Tecnología e Innovación from Ecuador (SENESCYT) for financing this research.
References
Abbate, S., Avvenuti, M., Carturan, L., & Cesarini, D. (2013). Deploying a Communicating
Automatic Weather Station on an Alpine Glacier. Procedia Computer Science, 19(0), 11901195. doi: http://dx.doi.org/10.1016/j.procs.2013.06.170
Barrenetxea, G., Ingelrest, F., Schaefer, G., Vetterli, M., Couach, O., & Parlange, M. (2008).
SensorScope: Out-of-the-Box Environmental Monitoring. 332-343. doi: 10.1109/ipsn.2008.28
Cantó Navarro, L. G., Fons Lluis, Ramos Lara. . (2010). Sistema Embededido de Rápida AutoReconfiguración.
Chouder, A., Silvestre, S., Taghezouit, B., & Karatepe, E. (2013). Monitoring, modelling and
simulation
of
PV systems
using
LabVIEW. Solar
Energy,
91(0),
337-349.
doi:
http://dx.doi.org/10.1016/j.solener.2012.09.016
Giannone, L., Eich, T., Fuchs, J. C., Ravindran, M., Ruan, Q., Wenzel, L., . . . Concezzi, S. (2011).
Data acquisition and real-time bolometer tomography using LabVIEW RT. Fusion
Engineering
and
Design,
86(6–8),
1129-1132.
doi:
http://dx.doi.org/10.1016/j.fusengdes.2011.03.119
INAMHI. (2014). Instituto Nacional de Meteorología e Hidrología. Retrieved July17th 2014
Jian-Ming Li, L. H., Shu-Yong Zhen, Lun-Tao Yao (2010). The assessment of automatic weather
station operating quality based on fuzzy AHP. Ninth International Conference on Machine
Learning and Cybernetics, Qingdao.
Paarmann, L. D. (2001). Design and analysis of analog filters: a signal processing perspective
(Vol. 617): Springer Science & Business Media.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
114
Popa,
M.
(2011).
Embedded
Weather
Station
with
Remote
Wireless
Control.
19th
Telecommunications forum TELFOR.
Salzmann, C., Gillet, D., & Huguenin, P. (2000). Introduction to real-time control using LabVIEWTM
with an application to distance learning. Int. J. Engng Ed, 16(5), 372-384.
Zhen Fang, Z. Z., Lidong. Du, Jiangang Zhang, Cheng Pang, Daoqu Geng. (2010). A New
Portable Micro Weather Station.
Zheng, W., Liu, R., Zhang, M., Zhuang, G., & Yuan, T. (2014). Design of FPGA based high-speed
data acquisition and real-time data processing system on J-TEXT tokamak. Fusion
Engineering and Design, 89(5), 698-701.
Enfoque UTE, V.6-N.3, Sep.2015, pp. 106 - 114
Enfoque UTE, V.6-N.3, Sep.2015, pp. 115 - 132
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/08/14
Aceptado (Accepted): 2015/09/21
CC BY-NC-ND 3.0
Indicadores de contaminación visual y sus efectos en la
población
(Visual pollution Indicators and its Effects on Population)
Valeria Fuentes Correa1, Anita Argüello Mejía1
Resumen:
Uno de los sectores donde se puede distinguir un aumento de la actividad comercial es la
parroquia de Cotocollao, ubicada en el Distrito Metropolitano de Quito. Este desarrollo
comercial ha significado un incremento de la publicidad exterior del sector, lo que supone una
fuente de contaminación para el lugar. La presente investigación tiene como objetivos estimar
los niveles de contaminación visual en un sector de la parroquia Cotocollao, y los efectos que
esta tiene en la población, proponer indicadores de medición, analizar los puntos críticos que
tiene el sector con respecto a la contaminación visual existente y el cumplimiento de la
normativa local con respecto a la publicidad exterior fija en el sector. La metodología utilizada
se basó en la propuesta de indicadores fabricados con base a la legislación local vigente, los
cuales son planteados para realizar un análisis cuantitativo de este tipo de contaminación y así
estimar los niveles existentes; y la aplicación de encuestas en la población del lugar para
realizar un análisis cualitativo de los efectos de este tipo de contaminación. Los niveles
estimados de contaminación visual presente en dicho sector han sido Medio y Medio-Alto en su
mayoría y los efectos que este tipo de contaminación ha tenido en la población son cansancio
visual, dolor de cabeza, estrés, obstrucciones visuales, entre otros.
Palabras clave: contaminación visual, Efectos en las personas, Indicadores, Publicidad.
Abstract:
One of the areas where you can distinguish an increase in business activity is Cotocollao
parish, located in the Metropolitan District of Quito, this commercial development has meant an
increase in the outdoor advertising, which is a source of visual pollution. The aims of this
investigation are estimate levels of visual pollution in an area of Cotocollao parish, and its
effects on the population, propose indicators measuring, analyzing critical points that the area
has with respect to the visual pollution and compliance with respect to the outdoor advertising
set in the sector. Methodology is based on the proposal of indicators made based on the
research conducted and local regulations, which are proposed for a quantitative analysis of this
type of contamination and thus estimate existing levels; and implementation of surveys on the
population of the place to make a qualitative analysis of the effects of this pollution. Estimated
levels of visual pollution present in this place were the Middle and Upper-Middle mostly, and
effects that this pollution has had on the population are eyestrain, headaches, stress, visual
obstructions, among others.
Keywords: Visual Pollution, People Effects, Indicators, Publicity.
1
Universidad Tecnológica Equinoccial, Quito – Ecuador ( {fcva46063, aarguello} @ute.edu.ec )
116
1. Introducción
Existe varios tipos de contaminación en el ambiente, siendo los más conocidos y ampliamente
analizados, los ocasionados a los tres grandes recursos: agua, aire y suelo; sin embargo, está
presente también la contaminación urbana muy poco investigada, en la que se incluye la
contaminación visual. Existen varios trabajos sobre temas relacionados a esta contaminación en
varios países, siendo notable la falta de información al respecto, especialmente sobre
estimaciones de los niveles de contaminación visual en el país, sus efectos en la población, así
como métodos de medición. La investigación acerca de contaminación visual es importante, ya
que puede existir un incremento de este tipo de contaminación y a futuro se podrán observar las
consecuencias que traen la misma.
El objetivo principal de la presente investigación fue la estimación de los Niveles de contaminación
visual en un sector de la parroquia Cotocollao ubicado en el Sector Zonal “La Delicia” y sus
efectos en la población, mediante el establecimiento de indicadores de contaminación visual en un
sector de la parroquia Cotocollao, basado en la normativa local e identificando los puntos críticos
de contaminación visual en el sector. Esta investigación, contribuye con la estimación de los
índices de contaminación visual en el sector de estudio y constituye de base para realizar otros
estudios en varios sectores de la ciudad.
Existen varios autores que definen a la contaminación visual, siendo: contaminación visual es el
cambio o desequilibrio en el paisaje, ya sea natural o artificial, que afecta las condiciones de vida y
las funciones vitales de los seres vivos (Jérez Paredes, 2007). Jérez hace hincapié en la afección
directa a la población; mientras que Méndez, se refiere a la afectación visual en el paisaje: Se
define a la contaminación visual como el abuso de ciertos elementos “no arquitectónicos” que
alteran la estética, la imagen del paisaje rural o urbano (Méndez Velandia, 2013). “El impacto en la
imagen y fisonomía del entorno urbano causado por la acumulación de materia prima, productos,
desechos, abandono de edificaciones y bienes materiales, así como violación en las densidades y
características físicas de publicidad” (Méndez Velandia, 2013).
Como se puede observar, existen varias definiciones de contaminación visual, las mismas que, de
manera general, se traducen a: contaminación visual es un tipo de contaminación de carácter
urbano que es ocasionada por el uso excesivo de varios elementos ajenos al ambiente que alteran
la estética y la imagen del paisaje ya sea natural o artificial, que afecta tanto a las condiciones,
calidad de vida y las funciones vitales de los seres vivos.
Este tipo de contaminación se puede encontrar en los espacios públicos, por lo que es necesario
tener una definición del mismo. Se entenderá como Espacio Público, el espacio de dominio
público o privado en el que la publicidad exterior colocada es visible; incluyendo el espacio privado
susceptible a la misma y, el espacio de servicio general en los que la publicidad colocada sea
Enfoque UTE, Sep.2015, pp. 115 - 132
117
visible desde el espacio público (art. 3 Ordenanza 0330 del Municipio del Distrito Metropolitano de
Quito, 2010).
Para la existencia de este tipo de contaminación existen varios focos: los espacios interiores,
cables aéreos y antenas, estilos arquitectónicos mezclados, basureros, grafitis y pintadas, árboles
y la publicidad exterior (Méndez Velandia, 2013). En el Sector Zonal “La Delicia”, el incremento de
actividad comercial ha tenido un crecimiento gradual por lo que supone un aumento en publicidad
trayendo consigo indicios de contaminación visual, por consiguiente los pobladores del sector son
los principales afectados.
De acuerdo con Méndez Veladia (2013), el principal agente de contaminación visual son los
“carteles publicitarios” en todas sus presentaciones. La cantidad inmensurable de anuncios, todos
de diferentes formas, tamaños y colores afecta a la salud de los seres humanos vulnerables a
esto. Esta será la que se desarrolle en la presente investigación por ser parte del tema central de
la misma.
La publicidad exterior afecta el entorno, es el agente más notorio por su efecto inmediato en la
población, creando una sobre-estimulación en el ser humano mediante la información
indiscriminada, y los múltiples mensajes que invaden la mirada. Esta situación no sólo atenta
contra la belleza del espacio público, sino también sobre la lectura poco clara que tienen los
individuos del mismo, dificultando la identificación del habitante con su paisaje El espacio público
se encuentra desvirtuado e invadido por postes, carteles, y la lamentablemente la vegetación
puede verse destruida. Este panorama es terriblemente agresivo para el hombre común, por lo
que podemos imaginar cuánto lo es para un discapacitado, niño o anciano, ya que este grupo de
individuos se podría considerar que pueden tener un mayor nivel de influencia por sus condiciones
(Couto, 2007).
La contaminación visual publicitaria se agrava en tiempos de crisis económica, donde el
achicamiento del mercado y la pelea por ganar espacios publicitarios conlleva la proliferación de
anuncios ilegales y el abuso de la normativa vigente.
La publicidad exterior trata de ser cada vez
más atractiva y se apela a efectos tales como diseño, color, luz, movimiento, tamaño, siendo así
un factor de distracción.
El tema de contaminación visual generada por el uso excesivo de publicidad es mundial, como se
puede ver en varios países, que cada vez presta mayor atención a este problema. En varios
países del mundo ya existen leyes o proyectos de ley sobre el uso de la publicidad en espacios
públicos; en Argentina, en la ciudad de Rosario; en Costa Rica, existen leyes bastante estrictas
que tienen en cuenta este tipo de contaminación.
La problemática de la contaminación visual provocada por la publicidad exterior fija podría
sistematizarse en cuatro aspectos: cantidad (existen demasiados), tamaño (prácticamente no
Enfoque UTE, Sep.2015, pp. 115 - 132
118
tiene límites), ubicación (se encuentran en cualquier lugar que uno mira), mensaje (muchas veces
es de dudoso buen gusto o inapropiado para el medio en que se encuentra) (Couto, 2007).
En el Ecuador, no existe una legislación específica de contaminación visual, pero existen ciertos
instrumentos legales que son aplicables en este caso; en la Constitución Ecuatoriana (2008), en el
artículo 66 dice. “Se reconoce y garantizará a las personas: El derecho a vivir en un ambiente
sano, ecológicamente equilibrado, libre de contaminación y en armonía con la naturaleza.” Lo
cual determina que las autoridades competentes deben velar por que la población disfrute de este
derecho.
En la Ley Orgánica de Transporte Terrestre, Tránsito y Seguridad Vial (2008) en el Capítulo IV Del
Ambiente, en la Sección 2: De la contaminación visual, dice: “Se prohíbe la instalación en
carreteras de vallas, carteles, letreros luminosos, paneles publicitarios u otros similares que
distraigan a los conductores y peatones, afecten la seguridad vial, persuadan o inciten a prácticas
de conducción peligrosa, antirreglamentaria o riesgosa.” Este tipo de planteamientos permite
regular el uso de publicidad en distintos ámbitos de la ciudad, por lo cual es importante tomarla en
cuenta en lugares donde existe circulación vehicular constante.
En el Reglamento de la Ley de Transporte Terrestre, Tránsito y Seguridad Vial (2012) en el
Capítulo III De la contaminación visual, dice: “Se prohíbe la instalación de rótulos tanto internos
como externos que afecte la visibilidad del conductor y de los usuarios, salvo los que sean parte
de la señalética de información e identificación autorizadas por la Agencia Nacional de Tránsito o
por los GADs. Los agentes de tránsito estarán autorizados a retirar la rotulación no autorizada”.
Aunque la competencia de este control está establecida en este reglamento, la misma forma parte
de las atribuciones que tiene el Municipio del Distrito Metropolitano de Quito.
Con los artículos anteriores se complementan con los artículos de las siguientes ordenanzas a ser
explicadas.
En la Ordenanza 0330 del Distrito Metropolitano de Quito del año 2010, señala que es
indispensable regular la utilización o el aprovechamiento del espacio público a través de la
colocación de publicidad exterior en el Distrito Metropolitano de Quito, con el fin primordial de
compatibilizar esta actuación con la protección de la seguridad ciudadana, la prevención de la
contaminación ambiental, la protección, el mantenimiento y la mejora de los valores del paisaje
urbano, y el buen uso del espacio público. En la misma Ordenanza, estipula: “El presente título
tiene por objeto regular las condiciones a las que se sujetarán las instalaciones y el ejercicio de la
actividad publicitaria exterior, cualquiera que sea el medio o sistema utilizado para la transmisión
del mensaje, con el fin primordial de compatibilizar la colocación de la publicidad exterior con la
seguridad de las personas, los bienes o el ambiente, y mantenimiento y mejora del ornato y
paisaje del Distrito Metropolitano de Quito.” Esta ordenanza es la única que regula el uso de
Enfoque UTE, Sep.2015, pp. 115 - 132
119
publicidad en Quito, por lo cual será utilizada para la construcción de los indicadores de
contaminación visual.
La problemática actual se centra en que no existe un medio adecuado de medición de
contaminación visual, es un fenómeno de polución de características singulares, debido a que no
se transmite a través de un vector sobre el que se pueda actuar, ya que este tipo de
contaminación es subjetiva y depende, en su mayoría, de la percepción de las personas
afectadas. Se observa que la publicidad exterior ha venido acrecentándose de manera paulatina,
lo que significa un efecto negativo para el ambiente, aunque no se pude negar que la publicidad
exterior es un medio generador de riqueza. Se manifiesta que los principales problemas que
puede padecer una persona sujeta a contaminación visual son: stress, dolor de cabeza, mareos,
ansiedad. También se puede indicar otros daños, como: distracciones peligrosas, especialmente
al volante, problemas de atención, disminución de la eficiencia laboral, mal humor, trastornos de
agresividad (Jerez Paredes, 2007).
Varios autores contribuyen a toda esta lista de efectos de la contaminación visual en la población,
por ejemplo algunas otras incidencias de este tipo de contaminación son: alteraciones del sistema
nervioso, impedimentos de transito libre y facilidad del mismo, la estética se ve afectada,
desmejoramiento panorámico, problemas ecológicos (se rompe el equilibrio ecológico cuando
algunas especies se alejan) y disminución de la eficiencia laboral, mal humor, trastornos de
agresividad, cefaleas, etc. (Gallardo Pacheco, 2011).
Como se puede ver en la Figura 1, se detalla el trayecto donde se realizó el estudio, se puede
observar la puntualización del “Inicio” y “Fin” de la distancia investigada. El área de estudio tiene
una longitud de aproximadamente 800 mts.
Figura 1. Tramo de la Investigación
(Google Earth, 2014)
Enfoque UTE, Sep.2015, pp. 115 - 132
120
2. Metodología
La metodología que se aplicó en esta investigación englobó una relación entre el ambiente y la
población, ya que al ser un sistema, depende de estas interacciones. La metodología que se usó
debe comprender tanto aspectos cualitativos como cuantitativos para conocer la presencia de
contaminación visual y los efectos que tiene en sus habitantes.
La investigación a realizar es de tipo no experimental descriptivo, ya que se realizó una
investigación sin manipular deliberadamente las variables y se observaron los fenómenos tal y
como se dan en su contexto natural para su posterior análisis; el uso de este tipo de investigación
describió las relaciones existentes entre dos o más variables en un momento dado midiendo así
dicha relación. El alcance de la presente investigación es realizar una estimación de los niveles
de contaminación visual presente en el área de estudio así como los efectos que esta tiene sobre
la población del sitio.
La presente investigación se realizó en el Barrio Cotocollao ubicado en la Parroquia Cotocollao
que se encuentra en el Sector Zonal “La Delicia”, específicamente desde la esquina de la calle
Rigoberto Heredia hasta la calle Capitán Ramón Chiriboga, por las características que este
trayecto posee.
Los cambios en la fisonomía y las actividades del sector, así como su ubicación, son algunas de
las razones para la selección de este barrio como objeto para la investigación de la presencia de
contaminación visual.
En el análisis de la contaminación visual y sus efectos en la población fue necesario utilizar varios
tipos de investigación para conocer la situación actual con respecto al tema y a su vez ir
profundizando en la misma. Por lo que se utilizó el método Deductivo Simple y el Combinado ya
que en los mismos se unen tanto la investigación documental como la de campo. Se utilizó el tipo
de Investigación documental para conocer el estado actual en el que se encuentra el análisis de la
contaminación visual tanto a nivel internacional como nacional y así ir tomando guías para la
realización de esta investigación. Posteriormente, se aplicó la investigación de campo para
realizar una observación directa a los grupos y fenómenos, enfatizando en las variables a ser
utilizadas en la investigación, es decir, analizar el área donde se manifiesta la contaminación
visual y su relación con la población. Se realizó este tipo de investigación para que los datos
requeridos sean recogidos de manera directa y así efectuar un análisis causa-efecto.
El análisis cuantitativo se centró en el estudio de las relaciones entre variables cuantificables
(aplicación de indicadores de contaminación visual), mientras que el análisis cualitativo lo hace en
contextos estructurales y situacionales (aplicación de encuestas y categorización de los efectos de
este tipo de contaminación) lo que permitió analizar la perspectiva de la población frente a la
problemática así como los efectos que la contaminación visual tiene el los habitantes. Con estos
Enfoque UTE, Sep.2015, pp. 115 - 132
121
análisis se determinaron los indicadores de la contaminación visual y los niveles de la misma por
la presencia de la publicidad exterior fija (rótulos publicitarios), así como los efectos que esta tiene
sobre la población.
Para la aplicación de las encuestas se definió una muestra aleatoria de la población en el sector a
analizar, partiendo del total de población en todo el barrio Cotocollao y no un especificado de la
población total del sector a realizar la investigación, como se ve en la Ecuación 1:
n= (total de casa*aproximado de habitantes por casa)*10%
n= (180*4)*10%
n= (720)*10%
n= 72
(1)
En la longitud del estudio existe un total de 180 casas (locales comerciales) aproximadamente, y
se realizó una indagación de un aproximado de habitantes por vivienda, teniendo como resultado
4 personas aproximadamente. Se calculó el aproximado de 10% del total de la población para
encontrar la muestra idónea. Por lo tanto, para que la muestra sea representativa, adecuada y
válida, no se debe utilizar un número menor de 72 individuos.
Para la observación directa de los hechos, se llevó a cabo un registro fotográfico de los niveles de
contaminación visual con base en la presencia del contaminante a ser analizado: Publicidad
Exterior Fija (Rótulos y Vallas). Para el levantamiento de esta información se usó como
instrumento la Ficha de Observación. Este instrumento consta de varias variables que serán de
utilidad para el posterior análisis y triangulación con los resultados de los otros instrumentos
utilizados, así como también fueron útiles como fuente primordial para la fabricación de los
indicadores de contaminación visual. Como primera instancia, se dividió el tramo a ser analizado
en partes iguales, como se presenta en la Figura 2, para que en cada una de estas sea aplicada
una ficha de observación y así ir completando las variables a ser analizados (8 tramos de 100m
cada uno).
La información en las fichas de observación requería realizar mediciones de la Publicidad Exterior
Fija (vallas y rótulos) presente en cada tramo así como el número presente en cada vivienda, por
lo tanto para completar las fichas de observación se realizó dos actividades: Medición del área de
rótulo usando como equipo el distanciómetro, y el conteo directo de la cantidad de rotulación
presente.
Las encuestas se las realizaron mediante un cuestionario, el mismo que proporciona un sistema
de análisis de los efectos visuales útil y fácil de documentar. La encuesta estuvo compuesta de 6
partes: objetivo, conocimientos generales de la población, conocimiento de publicidad exterior fija,
conocimiento de contaminación visual, efectos de este tipo de contaminación.
Para la
determinación de existencia de contaminación visual así como los niveles de la misma, se
establecieron indicadores que sean de utilidad para la generación de información y de esta
Enfoque UTE, Sep.2015, pp. 115 - 132
122
manera contrastar los resultados para su posterior análisis y finalmente dar conclusiones al
respecto.
Figura 2. División de los tramos para aplicar Fichas de Observación
(Google Earth, 2014)
Para formular los indicadores, se estudiaron las reglamentaciones de varios países, y se analizó la
información generada por los mismos. Esta información fue analizada y comparada, la misma
ordenándose según sus coincidencias para el análisis de los indicadores de contaminación visual
en otros países, tomando en cuenta la forma en cómo estos son aplicados: en general se definen
por el número de vallas, ubicación, iluminación y cumplimiento de la normativa, entre otros. Tanto
la información de la reglamentación como la existencia de indicadores de contaminación visual en
otros países fueron realizadas con la investigación documental tanto física como digital.
Una vez realizada esta investigación se procedió a seleccionar la información y adaptación a nivel
nacional teniendo en cuenta las características con que debe contar la misma como practicidad,
factibilidad, comparabilidad y así proceder a la formulación de los indicadores para su aplicación
local. Los indicadores diseñados dependerán de la cantidad de información disponible así como la
profundidad que esta posea, para que de esta manera los resultados del estudio tengan mayor
veracidad.
Se ha estructurado cinco indicadores básicos para el presente análisis de contaminación visual
basándose principalmente en la Ordenanza Municipal 0330 “De la Licencia Metropolitana
Urbanística de Publicidad Exterior - LMU (41)” del año 2010, donde existen reglas técnicas acerca
de la publicidad exterior fija, los indicadores son:
Enfoque UTE, Sep.2015, pp. 115 - 132
123
Indicador 1.- Porcentaje de rótulos por área.
𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 1 =
𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠
𝑥 100%
𝐶𝑎𝑑𝑎 100 𝑚 𝑓𝑎𝑐ℎ𝑎𝑑𝑎
El Objetivo es contabilizar la cantidad de rotulación presente en el sector, estableciendo así
tramos donde la magnitud de colocación de publicidad exterior fija sea excesiva e ir categorizando
de lugares donde la rotulación sea mayor que otras.
Indicador 2.- Porcentaje de rótulos cuya área no cumple la norma.
𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 2 =
𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑐𝑜𝑛 𝑒𝑙 á𝑟𝑒𝑎 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 𝑙𝑎 𝑛𝑜𝑟𝑚𝑎𝑡𝑖𝑣𝑎
𝑥 100%
𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑎𝑑𝑎 100 𝑚.
En la Ordenanza anteriormente descrita indica que la Publicidad Exterior Fija tiene un área
determinada (3m2).ya que si un rótulo tiene mayor área que la permitida, el efecto que tiene sobre
la población será mayor. El objetivo de este indicador es analizar la cantidad de rotulación que
tiene mayor área en comparación con el área permitida por la ley sin tener en cuenta el número
de publicidad legal o ilegal. Este indicador ayuda a visualizar la cantidad de publicidad exterior fija
(rótulos) que tiene un área fuera de la ley, por lo tanto, el nivel de contaminación visual y los
efectos en la población serán mayor si se encuentra fuera de la normativa.
Indicador 3.- Porcentaje de rótulos cuya distancia con la que se encuentran montados
sobre la fachada no cumple la norma.
𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 3 =
𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑚𝑜𝑛𝑡𝑎𝑑𝑜𝑠 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 𝑙𝑎 𝑛𝑜𝑟𝑚𝑎𝑡𝑖𝑣𝑎
𝑥 100%
𝑁° 𝑑𝑒 𝑟ó𝑡𝑢𝑙𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑎𝑑𝑎 100 𝑚.
En la Ordenanza hacer referencia a la distancia con la que se encuentra montada la Publicidad
Exterior Fija, ya que si tienen una distancia mayor sobre la fachada (20cm), el efecto que esto
ocasiona en la población es mayor en comparación a que se encuentren montados lo más cerca
posible sobre las viviendas. Al igual que el Indicador 2 “Porcentaje de rótulos que no cumplen la
norma”, la investigación de campo realizada es fundamental para este indicador.
Indicador 4.- Porcentaje de locales comerciales con más de un elemento publicitario.
𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 4
=
𝑁° 𝑑𝑒 𝑙𝑜𝑐𝑎𝑙𝑒𝑠 𝑐𝑜𝑚𝑒𝑟𝑐𝑖𝑎𝑙𝑒𝑠 𝑐𝑜𝑛 𝑚á𝑠 𝑑𝑒 𝑢𝑛 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑝𝑢𝑏𝑙𝑖𝑐𝑖𝑡𝑎𝑟𝑖𝑜
𝑥 100%
𝑁° 𝑑𝑒 𝑙𝑜𝑐𝑎𝑙𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑐𝑜𝑚𝑒𝑟𝑐𝑖𝑎𝑙𝑒𝑠
Según la Ordenanza 0330 que se describió con anterioridad cada sitio debe tener como máximo
un elemento publicitario, ya que el exceso de publicidad exterior fija presente en un solo sitio
comercial, tiene mayor efecto en la población en comparación a aquellos que tienen un solo
elemento publicitario. Al igual que el anterior indicador, para la fabricación de este es necesario
Enfoque UTE, Sep.2015, pp. 115 - 132
124
realizar un trabajo de campo previo, donde se realiza un conteo de la cantidad de publicidad
exterior fija presente en cada local comercial del sector. El objetivo de este indicador es conocer el
número de sitios comerciales que cumplen con la ordenanza 0330 de elementos publicitarios
máximos permitidos por la ley y analizar los sectores del estudio de trabajo donde existe una
proliferación de Publicidad Exterior Fija ocasionando mayor contaminación visual.
Indicador 5.- Presencia de contaminación visual
𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 𝐶𝑜𝑛𝑡. 𝑉𝑖𝑠𝑢𝑎𝑙 5
=
𝑁° 𝑑𝑒 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑞𝑢𝑒 𝑎𝑐𝑒𝑝𝑡𝑎𝑛 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙
𝑥 100%
𝑁° 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑒𝑛𝑐𝑢𝑒𝑠𝑡𝑎𝑑𝑎𝑠
La presencia de este tipo de contaminación es algo subjetivo, depende de la perspectiva de la
población del lugar y del análisis de la presencia de contaminación visual presente producto de la
Publicidad Exterior Fija del lugar (Rótulos). Para la fabricación de este indicador fue fundamental
la realización de encuestas a la población.
El objetivo de este indicador es analizar la presencia de contaminación visual desde la perspectiva
de la población del sitio a ser investigado. Una vez fabricados los indicadores se procedió a su
aplicación para triangular la información y dar a conocer la presencia de contaminación visual y los
niveles de la misma en el sector. Debido a la inexistencia de patrones cuantitativos para la
evaluación de la gravedad de la contaminación visual y los efectos que esta tiene en la población,
estas valoraciones necesitan la experiencia y juicio de profesionales cualificados para que puedan
ser analizados.
3. Resultados
Los resultados de la aplicación del Indicador 1 “Porcentaje de rótulos por área” fue que en una
longitud de 800 mts. Compuesta por las dos aceras que constituyen el área del estudio se observó
que existen 269 rótulos, lo que refleja un uso del 34% de la totalidad del tramo del estudio (Tabla
1).
Los resultados de la aplicación del Indicador 2 “Porcentaje de rótulos cuya área no cumple la
norma” fue que en la totalidad de la longitud de la investigación contabilizando la cantidad de
rotulación cuya área no cumple la norma en las dos calles que lo conforman, de una totalidad de
269 rótulos fijos presentes, 154 rótulos fijos tienen el área fuera de la Ordenanza 0330; lo que
significa que existe un total de 57% de Publicidad Exterior Fija en el lugar con un área mayor a
3mts2 que es lo que establece la normativa lo que significa que más de la mitad de la rotulación
presente tiene un área mayor por lo que la contaminación visual y los efectos que esta tienen son
mayores en este tramo (Tabla 2).
Enfoque UTE, Sep.2015, pp. 115 - 132
125
Tabla 1. Indicador 1 - Porcentaje de rótulos por área
INDICADOR 1 – RESULTADOS TOTALES
NÚMERO DE
TRAMO
TOTAL DE
RÓTULOS
PORCENTAJE
TRAMO 1
64
64%
TRAMO 2
35
35%
TRAMO 3
33
33%
TRAMO 4
34
34%
TRAMO 5
34
34%
TRAMO 6
36
36%
TRAMO 7
11
11%
TRAMO 8
22
22%
TOTAL
269
34%
Tabla 2. Indicador 2 - Porcentaje de rótulos cuya área no cumple la norma
INDICADOR 2 – RESULTADOS TOTALES
NÚMERO DE
TRAMO
TOTAL DE
RÓTULOS
ÁREA NORMATIVA
PORCENTAJE DE
3m2
NO
Ordenanza 0330;
CUMPLIMIENTO
Anexo Único 2.1.1
SI
NO
27
37
58%
TRAMO 1
64
TRAMO 2
35
20
15
43%
TRAMO 3
33
15
18
55%
TRAMO 4
34
14
20
59%
TRAMO 5
34
16
18
53%
TRAMO 6
36
17
19
53%
TRAMO 7
11
0
11
100%
TRAMO 8
22
6
16
73%
TOTAL
269
115
154
57%
Los resultados de la aplicación del Indicador 3 “Porcentaje de rótulos cuya distancia con la que se
encuentran montados sobre la fachada no cumple la norma” fue que en la totalidad de la longitud
de la investigación calculando la cantidad de rotulación cuya distancia con la que se encuentran
montados sobre la fachada no cumple la norma en las dos calles que lo conforman, de una
totalidad de 269 rótulos fijos presentes, 144 rótulos fijos se encuentran montados sobre la fachada
a más de 20cm siendo un 54% de la totalidad lo que significa que existe mayor nivel de
contaminación visual y efectos en la población (Tabla 3).
Los resultados de la aplicación del Indicador 4 “Porcentaje de locales comerciales con más de un
elemento publicitario” fue que en la totalidad de la longitud de la investigación contabilizando el
número de locales comerciales en las dos calles que lo conforman que poseen más de un
Enfoque UTE, Sep.2015, pp. 115 - 132
126
elemento publicitario por lo que no cumplen la norma, de una totalidad de 181 locales comerciales,
94 locales cuentan con más de una Publicidad Exterior Fija por lo que se encuentran fuera de la
normativa; lo que significa un 52% de la totalidad de locales comerciales con más de un elemento
publicitario lo que significa que existe mayor nivel de contaminación visual y efectos en la
población al existir una proliferación de publicidad (Tabla 4).
Tabla 3. Indicador 3 - Porcentaje de rótulos cuya distancia con la que se encuentran montados sobre la
fachada no cumple la norma
INDICADOR 3 – RESULTADOS TOTALES
SOBRE FACHADA
NORMATIVA
PORCENTAJE
max. 20cm
NÚMERO TOTAL DE
DE NO
Ordenanza 0330;
DE FICHA RÓTULOS
CUMPLIMIENTO
Anexo Único 2.1.1
SI
NO
TRAMO 1
64
31
33
52%
TRAMO 2
35
20
15
43%
TRAMO 3
33
14
19
58%
TRAMO 4
34
15
19
56%
TRAMO 5
34
13
21
62%
TRAMO 6
36
21
15
42%
TRAMO 7
11
3
8
73%
TRAMO 8
22
8
14
64%
TOTAL
269
125
144
54%
Tabla 4. Indicador 4 - Porcentaje de locales comerciales con más de un elemento publicitario
INDICADOR 4 – RESULTADOS TOTALES
NÚMERO DE
CASAS CON MÁS
NÚMERO DE
DE UNA
PORCENTAJE DE
NÚMERO
LOCALES
PUBLICIDAD
NO
DE FICHA
COMERCIALES
Ordenanza 0330;
CUMPLIMIENTO
TOTALES
Anexo Único 2.1.1
SI
NO
TRAMO 1
35
13
22
63%
TRAMO 2
TRAMO 3
TRAMO 4
TRAMO 5
TRAMO 6
TRAMO 7
TRAMO 8
TOTAL
20
21
24
28
22
11
20
181
11
10
11
13
11
9
9
87
9
11
13
15
11
2
11
94
45%
52%
54%
54%
50%
18%
55%
52%
Los resultados de la aplicación del Indicador 5 “Presencia de contaminación visual” de la muestra
total de la aplicación de las encuestas (72 encuestados), 60 personas encuestados dieron como
respuesta que en su barrio existe contaminación visual como resultado de un exceso de
Enfoque UTE, Sep.2015, pp. 115 - 132
127
Publicidad Exterior Fija, lo que representa que el 83% de ellos afirman la presencia de
contaminación visual (Tabla 5).
Tabla 5. Indicador 5 - Presencia de contaminación visual
INDICADOR 5 – RESULTADOS ENCUESTA
RESPUESTAS DE
PERSONAS
ENCUESTADAS
SI
NO
NÚMERO
TOTAL DE
PERSONAS
ENCUESTADAS
72
60
PORCENTAJE DE
PRESENCIA DE
cVISUAL
83%
12
Otro de los resultados fue analizar los puntos críticos con respecto a contaminación visual en el
sitio de la investigación; para este análisis se tomaron en consideración los resultados de los
Indicadores 2, 3 y 4 ya que el objetivo fue analizar y categorizar los tramos (8 tramos) del sitio
según el nivel de contaminación visual existente.
Una vez analizados los tramos con los tres indicadores, es necesario realizar un cálculo para
poder categorizar dependiendo del nivel de contaminación visual existente, siendo el cálculo el
siguiente:
𝐶á𝑙𝑐𝑢𝑙𝑜 𝑑𝑒𝑙 𝑁𝑖𝑣𝑒𝑙 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙 𝑑𝑒𝑙 𝑇𝑟𝑎𝑚𝑜 𝑥
=
(%𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 2 + %𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 3 + %𝐼𝑛𝑑𝑖𝑐𝑎𝑑𝑜𝑟 4)
3
Teniendo así en el caso del Tramo 1 y observando la Tabla 1:
𝐶á𝑙𝑐𝑢𝑙𝑜 𝑑𝑒𝑙 𝑁𝑖𝑣𝑒𝑙 𝑑𝑒 𝐶𝑜𝑛𝑡𝑎𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑉𝑖𝑠𝑢𝑎𝑙 𝑑𝑒𝑙 𝑇𝑟𝑎𝑚𝑜 1 =
(58% + 52% + 63%)
3
Una vez aplicada el anterior cálculo, se categorizó de acuerdo a los porcentajes de contaminación
visual (descendente) de acuerdo a la Tabla 6.
Tabla 6. Categorización del porcentaje de contaminación visual por Tramos
TRAMO
%
1
TRAMO 7
64
2
TRAMO 8
64
3
TRAMO 1
58
4
TRAMO 4
56
5
TRAMO 5
56
6
TRAMO 3
55
7
TRAMO 6
48
8
TRAMO 2
44
Enfoque UTE, Sep.2015, pp. 115 - 132
128
Para la categorización de los tramos cuyo resultado tuvo los mismos valores, se analizó a
profundidad el Indicador 2: Área total de rotulación, ya que si los rótulos tienen mayor área el
impacto será mayor.
Por lo tanto, los puntos críticos serán principalmente el tramo séptimo y el octavo al tener 64% de
contaminación visual, seguidos por los tramos cuarto, quinto y tercero, que tienen más del 50% de
contaminación visual existente.
Solo los tramos sexto y segundo poseen un nivel de contaminación visual menor al 50%, por lo
que no fueron considerados puntos críticos en comparación a los otros tramos.
Para realizar una estimación de los niveles de contaminación visual en el sitio de investigación es
necesario tener una escala. Esta escala se la realizó en base a la experiencia de esta
investigación, así como de los datos emitidos una vez aplicados los indicadores.
Por lo tanto, la escala que se observa en la Tabla 7, para la categorización de los niveles de
contaminación visual:
Tabla 7. Escala de los Niveles de Contaminación visual
ESCALA DE LOS NIVELES DE
CONTAMINACIÓN VISUAL
100% - 75%
Alto
75% - 50%
Medio- Alto
50% - 25%
Medio
25% - 1%
Bajo
Una vez diseñada la escala de contaminación visual se prosigue con la estimación de los niveles
de contaminación visual en cada uno de los tramos de acuerdo con los resultados de los
Indicadores 2, 3 y 4, por consiguiente obteniéndose los valores de la Tabla 8.
Tabla 8. Estimación de niveles de contaminación visual en el sitio de estudio
1
TRAMO 7
64
2
TRAMO 8
64
3
TRAMO 1
58
4
TRAMO 4
56
5
TRAMO 5
56
6
TRAMO 3
55
7
TRAMO 6
48
8
TRAMO 2
44
NIVEL
MEDIO - ALTO
%
MEDIO
TRAMO
Enfoque UTE, Sep.2015, pp. 115 - 132
129
Presencia de contaminación visual realizando una estimación de los niveles de este tipo de
contaminación, se observa que todo el sector tiene nivel medio-alto de contaminación visual,
inclusive los tramos sexto y segundo, que tiene un nivel de contaminación medio (Figura 3). Los
efectos que tiene la contaminación visual en la población dependen de la perspectiva de ellos ya
que se encuentran expuestos a este tipo de contaminación, por lo tanto, los resultados del
cuestionario fueron claves.
Figura 3. División de los tramos para aplicar Fichas de Observación
(Google Earth, 2014)
Enfoque UTE, Sep.2015, pp. 115 - 132
130
La opinión de las personas acerca de la contaminación visual como producto de la publicidad, se
empezó a analizar los efectos que a su opinión generan este tipo de contaminación, teniendo así
los resultados de la Tabla 9.
Tabla 9. Efectos de la contaminación visual
NO GRAVES
DEFINITIVAMENTE GRAVES
9. EFECTOS DE CONTAMINACIÓN VISUAL
NÚMERO
ESTRÉS
67
DOLOR DE CABEZA
68
CANSANCIO VISUAL
70
AMENAZA
21
PERTURBACIÓN
30
OFENSA
24
INCOMODIDAD
59
AGRESIÓN
35
DISTRACCIONES PELIGROSAS
64
PÉRDIDA EN LOS VALORES ESCÉNICOS
58
POTENCIALMENTE
AUMENTO
EN
LA
ACTIVIDAD
GRAVES
60
COMERCIAL
OBSTRUCCIÓN VISUAL (FACHADAS,
ESPACIOS
PÚBLICOS,
VÍAS
DE
68
CIRCULACIÓN PEATONAL)
BLOQUEO O INTERRUPCIÓN VISUAL
59
DEL PAISAJE NATURAL
OTROS
0
NINGUNO DE LOS ANTERIORES
0
TOTAL ENCUESTADOS
PORCENTAJE
93%
94%
97%
29%
42%
33%
82%
49%
89%
81%
83%
94%
82%
0%
0%
72
Los efectos que sufre la población, son tanto definitivamente graves, potencialmente graves y no
graves, siendo el efecto que menor porcentaje tuvo “amenaza” con un 29% del total de los
encuestados, y los efectos que tuvieron mayor incidencia fueron: Cansancio visual 97%, dolor de
cabeza 94%, obstrucción visual 94%, estrés 93%, distracciones peligrosas 89%, incomodidad
82%, bloqueo o interrupción del paisaje natural 82% y pérdida en los valores escénicos 81%.
3. Discusión
De acuerdo Méndez Velandia (2013), en el análisis de contaminación visual en Venezuela, se
coincide con la existencia de esta problemática, especialmente por la presencia de publicidad
tanto rótulos como vallas, denotando los efectos en la población. Aunque la contaminación visual
no es un tipo de contaminación convencional, tal como la contaminación al agua o al suelo, la
construcción de indicadores que permitan medir el cumplimiento de las normas (que son creadas
para el bienestar de los ciudadanos, y evitar efectos tanto en el ambiente como en los seres
humanos), son de gran importancia para el análisis de sus efectos en la población y su derecho a
vivir en un ambiente sano.
Enfoque UTE, Sep.2015, pp. 115 - 132
131
Al ser una fuente de contaminación visual el mal uso de publicidad exterior fija, el control por parte
de las autoridades, en los sectores cuyos niveles estimados de este tipo de contaminación son
considerados como críticos, debe tener un monitoreo constante, para de esta manera reducir los
sus efectos mediante el cumplimiento de la normativa; así como también para una reducción de
contaminación visual, especialmente en sectores donde ha aumentado la actividad comercial.
4. Conclusiones
Se concluyó que la población tiene varias nociones sobre la definición de la misma que son tanto
afectaciones a la salud como a su entorno, de igual manera un exceso de elementos ajenos al
ambiente, lo cual se constata que se relaciones de gran manera con las definiciones expuestas
por varios autores.
Como aporte de esta investigación se propone un concepto que englobe todas las definiciones
anteriormente descritas de contaminación visual, siendo el siguiente:
contaminación visual aquel tipo de contaminación que es de carácter urbano que es ocasionada
por el uso excesivo de varios elementos ajenos al ambiente que alteran la estética y la imagen del
paisaje ya sea natural o artificial, que afecta tanto a las condiciones, calidad de vida y las
funciones vitales de los seres vivos.
Posterior a tener un concepto claro de contaminación visual, y a las investigaciones realizadas
alrededor de la misma, se analizó la forma en que la contaminación visual puede ser medida, por
lo que se creó cinco indicadores y los mismos puedan arrojar información cuantitativa de esta
contaminación. Estos indicadores fueron aplicados en las dos aceras en cada tramo del área del
estudio y de igual manera en todo el sector (Esquina de la Calle Rigoberto Heredia hasta la Calle
Capitán Ramón Chiriboga), para tener referencias globales del nivel de contaminación existente.
Se concluye de los resultados de la aplicación de los indicadores y de realizar una estimación de
los niveles de contaminación visual presente y conocer los puntos críticos existentes en el área de
estudio se prosiguió a realizar estimaciones de los niveles de contaminación visual existente,
donde se basó en una escala realizada a base de la experiencia de esta investigación, siendo los
niveles del sector “Medio-Alto” seis de los tramos totales (el 75% del sector total) y dos como
“Medios” (el 25% del sector total).
Para finalizar, se analizó los efectos que tiene la contaminación visual en la población los mismos
que se basaron en la percepción de la población frente a esta problemática. Los efectos que
mayor incidencia que los pobladores opinaron que sufren a causa de este tipo de contaminación
fueron: cansancio visual, dolor de cabeza, obstrucción visual, estrés, distracciones peligrosas,
incomodidad, bloqueo del paisaje natural y pérdida de los valores escénicos.
Enfoque UTE, Sep.2015, pp. 115 - 132
132
Bibliografía
Constitución de la República (2008)
Couto, M. M. (2007). Contaminación visual del paisaje, cartelería publicitaria en rutas. Metodología
de la Investigación. Costa Rica: Maestría en Paisajismo-Instituto Universitario Bios.
Gallardo Pacheco, R. F. (2011). Propuesta de regulación del diseño publicitario de rotulación en el
Centro Histórico de la ciudad de Latacunga para combatir la contaminación visual existente.
Latacunga, Ecuador.
Jérez Paredes, M. T. (2007). Eficacia de las medidas legales existentes para evitar la
contaminación visual en la ciudad de Guatemala. Guatemala: USAC.
Ley Orgánica de Transporte Terrestre, Tránsito y Seguridad Vial (2008)
Méndez Velandia, C. A. (2013). La contaminación visual de espacios públicos en Venezuela., El
Caribe, España y Portugal: Red de Revistas Científicas de América Latina, pp. 45-60.
Municipio del Distrito Metropolitano de Quito (2010) Ordenanza Metropolitana 0330: De la Licencia
Metropolitana Urbanística de Publicidad Exterior – LMU (41). Quito: MDMQ.
Municipio del Distrito Metropolitano de Quito (2012) Ordenanza Metropolitana 0310: “La
Ordenanza Metropolitana Reformatoria de la Ordenanza Metropolitana No. 0330,
sancionada el 23 de noviembre de 2010, que establece el régimen administrativo de la
Licencia Metropolitana Urbanística de Publicidad Exterior LMU – (41). Quito: MDMQ.
Municipio del Distrito Metropolitano de Quito (2003): Ordenanza Sustitutiva a la Ordenanza de
Zonificación No. 008 que contiene el plan de uso y ocupación del suelo (PUOS), recuperado
en agosto del 2014 de:
http://www7.quito.gob.ec/mdmq_ordenanzas/Ordenanzas/ORDENANZAS%20A%C3%91OS
%20ANTERIORES/ORDZ-011%20-%20PUOS%20-%20SUSTITUYE%20ORMZ-008.pdf
Reglamento de la Ley de Transporte, Tránsito y Seguridad Vial (2012).
Enfoque UTE, Sep.2015, pp. 115 - 132

Documentos relacionados