revista tomo 2 - Revista Polit? - Revista Politécnica

Transcripción

revista tomo 2 - Revista Polit? - Revista Politécnica
Volumen 37 No 2
Marzo 2016
Volumen 37 No 2
Marzo 2016
La Revista Politécnica es una publicación semestral de la Escuela Politécnica Nacional que pone
al alcance de los sectores académico y productivo los desarrollos científicos y tecnológicos en las
áreas de las ingenierías y ciencias.
Está incluida en:
Latindex, catálogo y directorio: Sistema Regional de
información en línea para Revistas Científicas de
América Latina, el Caribe, España y Portugal
Google Scholar: Buscador de Google enfocado en el el
mundo académico que se especializa en literatura
científica-académica
Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los
conceptos expresados son de responsabilidad exclusiva de sus autores.
Contactar con la Coordinación de Edición:
[email protected]
[email protected]
Teléfono: (+593) 3976000 ext. 5218
Guía para autores:
http://revistapolitecnica.epn.edu.ec/repo_files/autor_manual.pdf
COORDINADORA DE EDICIÓN
Ing. Iliana Carrera
COMISIÓN DE APOYO EDITORIAL
Ing. Andrés Proaño
Srta. Dayana Gavilanes
Sr. Luis Estrada
Srta. Sandra Rojas
Sr. Daniel Cabrera
REVISTA POLITÉCNICA
Volumen 37, Número 2
Marzo 2016
CONSEJO EDITORIAL
Enio Da Silveira, Ph.D.
Universidad Católica de Río, Brasil.
Carlos Smith, Ph.D.
University of South Florida, Estados
Unidos
Gyimah-Brempong Kwabena, Ph.D.
University of South Florida, Estados
Unidos
ESCUELA POLITÉCNICA
NACIONAL
Rector
Jaime Calderón, MBA
Vicerrector de Investigación y
Proyección Social
Alberto Celi, Ph.D.
Vicerrector de Docencia
Tarquino Sánchez, MBA
Editor
Oscar Camacho, Ph.D.
Co Editor
Rafael Uribe, Ph.D.
Raymundo Forradelas, Ph.D.
Universidad Nacional del Cuyo,
Argentina
Ricardo Carelli, Ph.D.
Universidad Nacional de San Juan,
Argentina.
Vanderlei Bagnato, Ph.D.
Universidad de Sao Paulo, Brasil.
Rui Pedro Pinto de Carvalho, Ph.D.
University of Coimbra, Portugal.
Oscar Ortiz, Ph.D.
Universidad Nacional de San Juan,
Argentina
Gustavo Scaglia, Ph.D.
Universidad Nacional de San Juan,
Argentina
Chen Ning, Ph.D.
Universidad de Mineralogía y
Tecnología de China, China.
Alex Ruiz Torres, Ph.D.
Universidad de Puerto Rico, Puerto
Rico.
Lizandro Solano, Ph.D.
Universidad de Cuenca, Ecuador
Romel Montufar, Ph.D.
Pontificia Universidad Católica, Ecuador
Marcos Villacís, Ph.D.
Escuela Politécnica Nacional, Ecuador
Andrés Rosales, Ph.D.
Escuela Politécnica Nacional, Ecuador
Danilo Chávez, Ph.D.
Escuela Politécnica Nacional, Ecuador
Oscar Camacho, Ph.D.
Universidad de Los Andes, Venezuela
Vicenzo Vespri, Ph.D.
Università degli studi di Firenze, Italia
Carlos Ávila, Ph.D.
Escuela Politécnica Nacional, Ecuador
COMITÉ EDITORIAL
Andrés Rosales, Ph.D.
Investigador
Escuela Politécnica Nacional
José Luis Paz, Ph.D.
Prometeo
Escuela Politécnica Nacional, Ecuador
ESCUELA POLITÉCNICA NACIONAL
Campus "José Rubén Orellana" Ladrón de Guevara E11 - 253
Quito - Ecuador
Ernesto Jiménez, Ph.D.
Prometeo
Escuela Politécnica Nacional, Ecuador
Florinella Muñoz, Ph.D.
Investigadora
Escuela Politécnica Nacional
CONTENIDO
1
Pizarro Monica; Sánchez Tereza; Ceballos Hernan; Morante Nelson; Dufour Dominique
Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria
Alimentaria
7
Genoy-Puerto Alexander; Hernández Martinez Noelia
Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas
Circunvecinas a la Laguna Cuicocha
13
Loyo Carlos; Arroyo Carla; Cadena Francisco; Aldás Miguel
Materiales Compuestos de Resina Poliéster y la Fracción no Metálica de Tarjetas de
Circuitos Impresos
19
Erazo Clara; de la Torre Ernesto; Endara Diana
Recuperación de Aluminio a partir de Empaques tipo blister usados por la Industria
Farmacéutica
27
Vallejo Fidel; Mera Luis; Lascano Luis
Diseño de una Planta Piloto para la Obtención de Aluminato de Sodio Mediante el
Método de Precipitación Controlada
36
Inca Fernando; Salguero Yadira; Aldás Miguel
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas
Plásticas de Identificación Recicladas a Escala Piloto
46
Inca Fernando; Quiroz Francisco; Aldás Miguel
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para
la Obtención de Materiales Plastificados
53
Segura Luis. J.; Loza Matovelle David; Guerrero Víctor H.; Reza Dabirian
Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater
59
Méndez Cuello Andy; Cely Vélez Mauricio; Monar Monar Willan
Diseño del Sistema de Freno Regenerativo de Automóviles
Híbridos
69
Reina Salvatore; Ayabaca César; Tipanluisa Luis
Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six
Sigma-Fase III
75
Paredes Cristian; Guarnizo Jorge; Guerrero Víctor H.; Campaña Orlando
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de
Vehículo
84
Quishpe Santiago; Rivero Dulce; Rivas, Francklin
Diseño de un Sistema Web para Asignación de Becas con Integración e
Interoperabilidad en Base a un Bus de Servicios
93
Cueva Samanta; Torres Rommel; Rodríguez Germania; Rojas Carolina; Marbán Óscar
Producción de Cursos Educativos Abiertos con Herramientas Sociales
100
Díaz Juan Pablo; Romaní Javier
An approximation to Household Overcrowding: Evidence from Ecuador
108
Díaz Juan Pablo
The Bad Business of Agriculture
A Correlation Analysis on Employment Share and Agriculture Added Value Share in
Ecuador
Artículos del III Congreso Internacional de Economía "La Economía Popular y
Solidaria, del Buen Vivir y la Economía Matemática"
112
Argothy Anderson
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la
Economía Social y Solidaria
126
Carrillo Maldonado Paúl A.
Análisis del beneficio marginal del gasto público y sus servicios
138
Galvis Andrés; Galindo Edwin
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica
de la Formación de Capital
Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria
_________________________________________________________________________________________________________________________
Diversificación de los Almidones de Yuca y sus Posibles Usos en la
Industria Alimentaria
Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2

1
Centro Internacional de Agricultura Tropical (CIAT),Apdo Aereo6713, Cali, Colombia
2
Centre de Coopération Internationaleen Recherche Agronomique pour le Developpement (CIRAD)
Resumen: La yuca ¨Waxy¨, variedad AM 206-5, libre de amilosa, fue reportada en 2006 en el proyecto de
mejoramiento de yuca del CIAT, que busca desarrollar genotipos con características especiales en el almidón
presente en sus raíces. Los almidones libre de amilosa tienen diferentes propiedades fisicoquímicas en comparación
con los que contienen amilosa, y por lo tanto se utilizan para la fabricación de diferentes productos en la industria
alimentaria. El objetivo de este trabajo fue clasificar genotipos de yuca mediante el contenido de amilosa (alto y
libre) y tamaño de granulo del almidón (normales a pequeños). Se evaluaron 880 genotipos descendientes del cruce
de la variedad de yuca AM 206-5 (libre de amilosa) y la variedad 5G 160-13 (granulo pequeño). El contenido de
materia seca osciló entre 7 % y 47 % con un promedio de 35 % y el contenido de amilosa vario entre 0 % y 42 %.
Se obtuvieron 6 genotipos doble mutante con las dos características combinadas (waxy y granulo pequeño). De los
880 genotipos evaluados se obtuvieron 145 con las características waxy y 110 con tamaño de granulo pequeño. Los
almidones se analizaron en términos de sus propiedades morfológicas, funcionales y fisicoquímicas: tamaño y
forma del granulo, claridez, comportamiento de los geles a través del calentamiento, enfriamiento por (RVA) y
contenido de amilosa. El almidón waxy presentó la mayor temperatura de gelatinización, y mayor claridez, este tipo
de almidones son menos sensibles a la retrogradación lo que los hace atractivos para la industria de alimentos
congelados y refrigerados ya que su vida útil será más larga, el almidón de 5G 160-13 presentó menor claridez, y
por su tamaño de granulo son más fáciles de hidrolizar para la obtención de etanol esto sería de gran interés para la
industria de biocombustibles y edulcorantes.
Palabras clave: Almidón, almidón xaxy, contenido de amilosa, tamaño de granulo.
Diversification of Cassava Starch and its Possible Uses in Food
Industry
Abstract: The waxy cassava variety AM 206-5, free amylose, was reported in 2006 in the cassava- breeding project
at CIAT, which seeks to develop genotypes with special features in the starch in its roots. The free amylose starches
having different physicochemical properties compared to those containing amylose, and therefore are used for
manufacturing different products in the food industry. The aim of this study was to classify cassava genotypes by
amylose (high and free) and starch granule size (small and normal). 880 offspring genotypes from crossing the
variety of AM 206-5 (free amylose) and cassava variety 5G 160-13 (small granules) were evaluated. The dry matter
content ranged between 7 % and 47 % with an average of 37 % and various amylose content from 0 % to 42 %.
were obtained 6 double mutant genotypes with the two combined features (waxy and small granule). From 880
genotypes were obtained 145 with features waxy and 110 with small granule size. Starches were analyzed in terms
of their morphological, functional and physicochemical properties: size and shape of granule, claridez, solubility
and swelling behavior of the gels through heating, cooling (RVA) and amylose. The waxy starch has the highest
gelatinization temperature, and greater claridez, such starches are less susceptible to retrogradation which makes
them attractive to the industry frozen and refrigerated foods since its lifetime will be longer, starch 5G 160-13
showed lower claridez, and granule size are easier to hydrolyze to obtain ethanol this would be of great interest to
the biofuels industry and sweeteners.
Keywords: Starch, waxy starch, content of amylose, granule size.
INTRODUCCIÓN
1
Las raíces de yuca (Manihot esculenta Crantz) son un
producto agrícola de gran aceptación y de importancia
socioeconómica, por ser uno de los componentes principales
de la canasta familiar en algunos países; debido a que ha
contribuido significativamente en las industrias procesadoras
de alimentos como producto primario o secundario para
consumo humano y animal. (Rosses, 2008). La planta de
[email protected]
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
1
2
Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2
_______________________________________________________________________________________________________________________________
yuca puede crecer en una variada gama de condiciones
tropicales: en los trópicos húmedos y cálidos de tierras bajas;
en los trópicos de altitud media y en los subtrópicos con
inviernos fríos y lluvias de verano. Aunque la yuca prospera
en suelos fértiles, su ventaja comparativa con otros cultivos
de alta rentabilidad, es su capacidad de crecer en suelos
ácidos, de escasa fertilidad, con precipitaciones esporádicas o
largos periodos de sequía. Sin embargo, no tolera
encharcamientos ni condiciones salinas de suelo (Sánchez et
al., 2007). Las raíces de esta planta son una de las fuentes
más importantes de almidón en los ambientes tropicales; el
alto contenido de almidón y su composición, que presenta
mayor proporción de amilosa, en comparación con otras
fuentes de almidón, hace de la yuca un importante cultivo
industrial, además es un producto alimenticio altamente
energético por su alto contenido de calorías (Rickard et al.,
1991).
El almidón es fácilmente extraíble de las raíces, ya que
contienen bajos niveles de proteínas y grasas, y se usa
principalmente en estado nativo, aunque también se usa en
forma modificada, con diferentes tratamientos para mejorar
sus propiedades físicas o químicas. (Sriroth et al., 1999). Los
gránulos de almidón de origen natural independientemente de
la fuente, planta ó tejido, contiene dos polisacáridos
principales, la amilosa y la amilopectina, ambos son
polímeros de glucosa (Bertoft, 2004). La amilosa, es una
molécula esencialmente lineal, y la amilopectina, una
molécula altamente ramificada. Las funcionalidades del
almidón como estabilizadores y las propiedades físicas y
viscoelasticas van a depender de la estructura y proporción de
la amilosa y amilopectina en el almidón (Charles et al.,
2005).
Los almidones se utilizan como materia prima principal o en
forma de aditivos. Estos se han empleado en diferentes tipos
de alimentos procesados como salsas, sopas, rellenos de
fruta, productos a base de crema y productos congelados, sin
embargo, cuando estos se congelan, la formación de cristales
de hielo dentro de la matriz alimentaria causa estrés físico a
los productos y al descongelar el derretimiento de estos
cristales de hielo conducen a la pérdida de humedad y el
ablandamiento en la textura de estos, afectando la calidad de
los alimentos, este proceso se denomina retrogradación y se
acelera por congelación y descongelación (Sae-Kang y
Suphantharika, 2006). Los almidones waxy debido a sus
características morfológicas especiales son menos sensibles
a la retrogradación en comparación con un almidón normal,
lo cual los hace útiles para la industria de mermeladas,
compotas, helados y productos congelados (Eliasson y
Gudmundsson, 1996). Mientras que los almidones de granulo
pequeño son más fáciles de hidrolizar lo que los hace aptos
para la industria de etanol y edulcorantes.
En el CIAT se ha implementado diversas estrategias para
desarrollar clones de alto valor, aprovechando las nuevas
oportunidades que se han presentado para la yuca, mediante
la globalización de muchos países tropicales (Ceballos et al.,
2004). La meta es desarrollar no sólo los clones con
productividad alta y estable, sino también, lograr obtener
raíces con características de mayor adaptación a las
necesidades de las diferentes industrias. En la industria del
almidón hay diferentes formas de aprovechamiento, por lo
tanto es necesario desarrollar e identificar clones de yuca con
novedosas propiedades en el almidón, motivo por el cual se
ha introducido gradualmente en el proyecto de mejoramiento
de yuca características intrínsecas en términos de calidad de
almidón (Ceballos et al., 2006). Además, la identificación de
aquellos genotipos a partir de la expresión de variaciones de
calidad del almidón, requiere la realización de pruebas
especiales. Una de las estrategias del programa de
mejoramiento de yuca es diversificar el uso de los almidones,
modificando propiedades funcionales por medio del
mejoramiento convencional y otras técnicas.
Recientemente se han reportado dos nuevos almidones de
yuca mutantes con contenido de amilosa extremos 0 y 31 %
Estos almidones son drásticamente diferentes de almidón de
yuca normal, cuyo contenido de amilosa oscila entre 15 y
25 % (Sabaté et al., 2011). La planta libre de amilosa fue
obtenida de autopolinizaciones en busca de rasgos recesivos
útiles, dando origen a plantas con bajo contenido de amilosa
(Ceballos et al., 2006). También se obtuvo un genotipo de
granulo pequeño, el cual fue el resultado de la irradiación de
semillas con rayos γ y de autopolinización para dar origen a
una planta donde las características morfológicas del granulo
de almidón eran anormales, siendo este de un menor tamaño
en comparación con los de uno normal (Ceballos et al.,
2007).
Es de gran importancia investigar en este tipo de
características y propiedades funcionales de los almidones ya
que hoy en día existen muchos mercados con aplicaciones y
funcionalidades diversas en las que tienen aplicación los
diferentes tipos de almidones. El objetivo de este estudio fue
clasificar y caracterizar 880 genotipos por contenido de
materia seca (MS), contenido de amilosa, tamaño de granulo
y comportamiento de los geles para ver sus posibles
aplicaciones en la industria de alimentos refrigerados,
congelados o en la industria de biocombustibles entre otras.
2. METODOLOGÍA
2.1 Materiales
Se seleccionaron 880 genotipos provenientes de 138 familias
de los cruces entre yuca AM 206-5 (libre de amilosa) y 5G
160-13 (granulo pequeño). Sembrados y cosechados en el
Centro Internacional de Agricultura Tropical (CIAT) ubicado
a 1100 m.s.n.m en Cali, Colombia (03° 25′N; 76° 35′W).
Cada planta se cosechó a una edad fisiológica de 10 a 11
meses, de las cuales se emplearon 3 raíces, se tomó una yuca
para sacar una rodaja del centro de esta para evaluar el
tamaño de granulo por medio de
un cuadrante por
microscopia de luz, el resto de las raíces fueron trozados en
un procesador de alimentos PA-7SE ESSEN serie 000120 y
se sacaron muestras para los diferentes análisis.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria
_________________________________________________________________________________________________________________________
2.2 Extracción de almidón.
2.7 Claridez de la pasta
La extracción de almidón se realizó según procedimiento
descrito por Ceballos et al., 2007 en donde las raíces frescas
sin pericarpio se cortaron en trozos para la extracción del
almidón, se adiciono 1 litro de agua a los trozos en una
licuadora (Oster modelo 4655-294VZ, Venezuela) y se
homogenizó aproximadamente por 1 minuto la solución
obtenida fue filtrada a través de un tamiz de 100 µm. El
almidón se dejó decantar y fue secado en horno de
convección forzada a 40 °C por 2 días (Thelco oven, model
28, Precision Scientific Subsidiary of GCA Corp., Chicago,
IL).
La claridez de la pasta se determinó empleando una
dispersión acuosa al 1 % de almidón en base seca con un
volumen final de 20 ml en el cual se hierve a 97 °C (1.000
msnm) y se agita con vortex a fondo cada 5 minutos durante
30 min. Se deja enfriar el gel a temperatura ambiente y se lee
en un espectrofotómetro UV – 2201 en trasmitancia a 650
nm, el valor reportado en trasmitancia equivale al % de
claridez de la pasta, pastas de almidones que tengan valores
menores de 40 % se consideran opacas o turbias y pastas de
almidones que tengan valores de trasmitancia mayores de
40 % se consideran claras o transparentes (Craig et al., 1989).
2.3 Apariencia microscópica y tamaño de gránulos
La caracterización de la forma de los gránulos de almidón, se
realizó, colocando un poco de almidón seco en un porta
objetos; se empleó la técnica de tinción de almidones con
una solución de yodo/yoduro de potasio al 0,2 %, se cubrió
con cubre objetos, para visualizar el tamaño de los gránulos
por medio de microscopia óptica, en el microscopio (Wild
leitz GMBH tipo 020-507,010 Hecho en Portugal), con
magnificación, 10x y 20x.
2.4 Análisis de materia seca
3. RESULTADOS Y DISCUSIÓN
3.1 Apariencia microscópica y tamaño de granulo
En la Figura 1 se presenta una distribución de los 880
genotipos evaluados 132 presentaron características de
almidón waxy con tamaño de granulo normal, 88 son
almidón con tamaño de granulo pequeño y con contenido de
amilosa, 6 genotipos son almidones de granulo pequeño pero
con características waxy y 654 son almidones con contenido
de amilosa y con tamaño de granulo normal.
3.2 Análisis de materia seca
Se determinó MS de acuerdo al método 925.09 de la AOAC
(1995), utilizando aproximadamente 80 g de pulpa fresca y
10 g de almidón, mediante secado a 105 °C por 24 horas. El
porcentaje de MS se calcula mediante la ecuación 1.
2.5 Análisis de contenido de amilosa
En la Figura 2 se presenta la distribución de frecuencia para
el contenido de materia seca evaluada en los 880 genotipos,
obteniendo que el contenido de materia seca, oscilo entre 748 % con media de 35 %.
3.3 Análisis de contenido de amilosa
El contenido de amilosa de las muestras de almidón fue
determinado por el método colorimétrico (Determinación de
la tenuer en amylose; ISO 6647, 1987) en un
espectrofotómetro UV – 2201.El principio se basa en la
dispersión de los gránulos de almidón con etanol y posterior
gelatinización con NaOH. A una alícuota acidificada se
agrega solución de yodo para formar un complejo de color
azul, la intensidad del color está relacionado con el contenido
de amilosa el cual es cuantificado espectrofotométricamente,
comparando los resultados con una nueva curva estándar
obtenida utilizando amilosa y amilopectina purificada
extraída del tubérculo papa (Marca sigma A0512).
2.6 Propiedades de la pasta
Los perfiles de viscosidad se obtuvieron empleando un RVA
(Rapid Visco Analizer) modelo RVA-4 series (Newport
Scientific, Australia). El almidón se dispersó en agua
destilada en una suspensión al 5 % y al 10 % para almidón de
granulo pequeño. La viscosidad se registró utilizando el perfil
de temperatura que inicia a 50 °C durante 1 min, luego se
calentó la suspensión, a una tasa de calentamiento de
6°C/min y se incrementó la temperatura de 50 a 90 °C,
manteniendo la temperatura a 90 °C durante 5 min, y después
se enfrió a una tasa de 6 °C/min hasta llegar a 50 °C
sosteniendo la temperatura a 50 °C con agitación continua de
160 rpm. Se realizó según procedimiento descrito en T.
Sánchez et al., 2010.
En la Figura 3 se presenta la distribución de frecuencia del
contenido de amilosa, en los genotipos evaluados en este
estudio. El contenido de amilosa estuvo en el rango de 0-42
% con un promedio de 17 %.
En general los genotipos de granulo pequeño tuvieron un
contenido de amilosa mas alto entre 18 a 42 % comparado
con los otros genotipos y se logró verificar que genotipos
obtenidos por doble mutación (waxy con granulo pequeño)
son libres de amilosa. , es decir el 77 % de los genotipos
evaluados presentaron un contenido de amilosa entre 15 a
20 %, lo que se podría considerar como genotipos de almidón
nativo con contenidos de amilosa normales.
3.4 Propiedades de la pasta
Mediante un viscoamilograma, se encontró que existen
diferencias notorias, en los perfiles de viscosidad entre
almidones provenientes de diferentes fuentes de yuca. Esto se
debe a las características fisicoquímicas, morfológicas y
funcionales de los almidones que analizamos en este estudio.
Se encontraron diferentes comportamientos de los geles de
almidón, como se muestra en la figura 4, donde el almidón
de AM 206-5 (libre de amilosa) tiene una viscosidad máxima
mayor y es menos sensible a la retrogradación, su
temperatura de empastamiento es mayor en comparación con
MCOL 1505 (almidón común) y AM 1290 (almidón doble
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
3
4
Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2
_______________________________________________________________________________________________________________________________
mutante). Donde el almidón de MCOL 1505 tiene mayor
viscosidad comparado con la AM 1290 (almidón doble
mutante) y la 5G160-13 (almidón de granulo pequeño) pero
es más sensible a la retrogradación y 5G160-13 (almidón de
granulo pequeño) son los que tienen menor viscosidad
máxima, y el AM 1290 tienen una temperatura de
empastamiento menor en comparación con los demás y tiene
un comportamiento muy similar al de AM 206-5. Este
comportamiento de los almidones de granulo pequeño y
waxy obtenidos de diferentes fuentes, también tuvo las
mismas similitudes en los estudios realizados por S. V.
Gomand et al 2009 y por Lindeboom et al 2004.
En la Figura 5 Se observa que la viscosidad máxima de los
almidones de granulo pequeño durante el calentamiento se
incrementa cuando hay una disminución en el contenido de
amilosa. Este comportamiento fue similar en el estudio
realizado en almidones de granulo pequeño de otra fuente por
Lloyd et al, 1996.
De acuerdo a la Figura 6, podemos observar que a mayor
concentración de la suspensión es menor la temperatura de
empastamiento, su viscosidad máxima aumenta con la
concentración y al hacer la comparación de 5 % y 10 % estos
almidones tienen un comportamiento muy similar al de un
almidón libre de amilosa o waxy. Similar comportamiento se
obtuvo en el estudio realizado por Ceballos et al, 2008.
3.5 Claridez de la pasta.
En la Figura 7 se ve una clara diferencia entre los diferentes
geles de cada uno de los genotipos evaluados en el estudio
donde el gel del almidón waxy es más traslucido, mientras
que el gel del almidón de granulo pequeño es opaco y turbio,
los geles de almidón normal y doble mutante están en un
rango intermedio no son transparentes pero tampoco son
opacos. Geles por encima de 40 % serán opacos y turbios y
geles por debajo de 40 % serán claros y traslucidos.
4. CONCLUSIONES
Los análisis fisicoquímicos realizados en este estudio
comprueban que de los 880 genotipos evaluados, 132
genotipos tienen características waxy, 88 genotipos tienen
almidón de granulo pequeño y 6 genotipos tienen
características doble mutante. Debido a las diferentes
cualidades fisicoquímicas, morfológicas y funcionales estos
almidones tienen diferentes funcionalidades en la industria.
Los almidones waxy tienen aplicaciones en la industria de
alimentos congelados y refrigerados, mientras que los
almidones de granulo pequeño tienen aplicación para la
obtención de etanol, bioplasticos y edulcorantes. Estos
resultados permiten seguir realizando investigación en torno
al mejoramiento genético y obtención de nuevos genotipos
para incrementar la diversificación en términos de calidad de
almidón, ya que por ejemplo los 6 genotipos encontrados con
las características de doble mutante se pueden usar como
progenitores en cruzamientos con miras a obtener nuevos
genotipos que permitan maximizar el banco de germoplasma
de yuca con características y propiedades físico químicas
especiales en los almidones y lograr a futuro suplir la
demanda industrial por almidones de tipo nativo con alto
valor agregado.
REFERENCIAS
*Association of Official Analytical Chemists. Official Methods 925.09:
Moisture: Official Methods of Analysis of AOAC International, 1995.
BERTOFT, E. (2004). Starch in food structure, function and applications.
Analysing starch structure. Woodhead Publishing Limited. Cambridge,
England. 597 p. ISBN 1 85573 731 0
Ceballos, H., Iglesias, C. A., Perez, J. C., Dixon, A. G. O. (2004). Cassava
breeding: opportunities and challenges. Plant Mol. Biolo. 56, pp 503-515.
Ceballos, H., Sanchez, T., Morante, N., M. Fregene, M., Dufour, D., Smith,
A. M., Denyer, K., Perez, J. C., Calle, F., Mestres, C. (2006 Jun). Discovery
of an Amylose-free Starch Mutant in cassava (Manihot eculenta Crantz). J.
Agric. Food. 2007, 55, pp7469-7476.
Ceballos, H., Fregene, M., Lentini, Z., Sanchez, T., Puentes, Y., Perez, J.
C., Rosero, A., Tofiño, A. (2006). Development and identification of highvalue Cassava clones. Acta hortic. 703, 63-70.
Ceballos, H., Sanchez, T., Denyer, K., Tofiño, A., Rosero, E., Dufour, D.,
Smith, A., Morante, N., Perez, J.C., Fahy, B. (2007 Jul). Induction and
identification of a small-granule, High-amylose mutant in Cassava (Manihot
esculenta Crantz). J.Agric. Food Chem.2007, 56 pp 7215-7222.
Charles, A. L., Chang, Y. H., Ko, W. C., Sriroth, K., Huang, T.C. (2005
Dic). Influence of amilopectine structure and amylose content on the gelling
properties of five cultivars of cassava starches. J. Agric. Food Chem. 2005,
53, 2717-2725.
Craig, S. A. S., Maningat, C. C., Seib, P. A., Hoseney. R. C. (1989). Starch
paste clarity. Cereal chem, 66 (3), pp 173-182. Available:
http://www.aaccnet.org/publications/cc/backissues/1989/Documents/66_173.
pdf
Eliasson, A.C. & Gudmundsson, M. (1996). Starch: Physiochemical and
functional aspects. In A.-C. Eliasson (Ed.), Carbohydrates in food (pp. 431–
504). New York: Marcel Dekker.
Gomand, S.V., Lamberts, L., Visser, R.G.F., Delcour, J.A. (2009, Nov).
Physicochemical properties of potato and cassava starches and their mutants
inrelation to their structural properties. Journal food hydrocolloids 24.pp
424-433.
*International Organization for Standardization (F) 6647. Riz: Determination
de la teneur en amylose. (1987).
Lindeboom, N., Chang, P. R., Tylor, R. T. (2004). Analytical, Biochemical
and physicochemical aspects of starch granule size, with: a review. Journal
Starch/Stärke.56. pp 89-99
Lloyd, J. R., Wang, T. L., Hedley, C. L. (1996). An analysis of seed
development in Pisum sativum XIX. Effect of mutant alleles at the r and rb
loci on starch grain size and on the content and composition of starch
in developing pea seeds. Journal of Experimental Botany, Vol. 47, No. 295,
pp. 171-180.
Rickard, J. E., Asaoke, M., J. M. V. (1991) The physicochemical properties
of cassava starch. Trop. Sci, 31, 189-207
Roger, P. E., Cochrane, M. P., Dale, M. F. B., Duffus, C. M., Lynn, A.,
Morrison, I. M., Prentice, R. D. M., Swanston, J. S., Tiller, S. A. (1997)
Starch production and industrial use. J. Sci. Food Agric, 77 289-311
ROSSES, M. Consultoría de canales y márgenes de comercialización de la
yuca. Available:http://www.magfor.gob.ni/servicios/de
scargas/Estudios_Mercado/Canales_Margenes_Yuca.pdf [citado 4 de abril
de 2008].
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria
_________________________________________________________________________________________________________________________
Sabaté, A. R., Sanchez, T., Buleon, A., Colonna, P., Jaillais, B., Ceballos,
H., Dufour, D. (2011 Jul). Structural characterization of novel cassava
starches with low and high –amylose contents in comparison with other
commercial sources. Food hydrocolloids 27 (2012) 161-174.
Sanchez, T., Aristizabal, J. & Mejia, D. (2007) “Guia tecnica para
produccion y analisis de almidon de yuca”, Boletin de servicios agricolas de
la FAO, pg 1. Roma.
Sánchez, T., Dufour, D., Moreno, I.X., y Ceballos, H. (2010, apr). Pasting
and gel stability of waxy and normal starches from cassava, potato, maize,
and rice under thermal, chemical and mechanical stress. Journal of
Agricultural and Food Chemistry. [Online]. 58(8).pp.5093-5099. Available:
http://www.ncbi.nlm.nih.gov/pubmed/20356303.
Sriroth, K., Santisopasri, V., Pechalanuwat, C., Kurotjanawong, K.,
Piyachomkwan, K., Oates, C. G. (1999). Cassava starch granule structurefunction properties: influence of time and conditions at harvest of four
cultivars cassava starch. Carbohydr. Polym. 38, 161-170.
Numero de genotipos
Sae-Kang, V. & Suphantharika, M. (2006 March) Influence of pH and
xanthan gum addition on freeze-thaw stability of tapioca starch pastes.
Carbohydrate Polymers 65 (2006) 371–380.
Distrubucion de frecuencia para el
contenido de amilosa en almidon
42,4
400
34,8
350
300
250
200
15,2
150
100
1,59%
2,84%
50
0,22%
0,11%
0
0
5
10 15 20 25 30 35 40 45
Amilosa (%)
Figura 3. Contenido de amilosa (%).
APÉNDICE A

Curvas de empastamiento al 5%
Figuras, tablas y márgenes
Figura 4. Perfiles de viscosidad en cuatro genotipos de yuca al 5%
Numero de genotipos
Figura 1. . Distribución de genotipos de acuerdo a sus características.
500
Distribución de frecuencia para
el contenido de materia seca
Curvas de empastamiento al 10%
de almidones de granulo pequeño
400
300
200
100
0
0 5 10 15 20 25 30 35 40 45 50
Materia Seca (%)
Figura 5. Perfiles de viscosidad de almidones de genotipos de granulo
pequeño con diferentes contenidos de amilosa (%) al 10%.
Figura 2. Distribucion de frecuencia para el contenido de materia seca en
pulpa de yuca (%).
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
5
6
Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2
_______________________________________________________________________________________________________________________________
Curvas de empastamiento al 5%
Curvas de empastamiento al 10%
Figura 6. Perfiles de viscosidad de diferente genotipos de almidón con
granulo pequeño al 5% y al 10% respectivamente.
Figura 7. Geles obtenidos de almidones normal, waxy, doble mutante y
granulo pequeño.

Ecuaciones
)
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha
_________________________________________________________________________________________________________________________
Validación de la Metodología TICs en el Monitoreo de
Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha
Genoy-Puerto Alexander1; Hernández Martinez Noelia2

1
Proyecto Prometeo/Secretaría Nacional de Educación Superior, Ciencia, Tecnología e Innovación, Quito, Ecuador
2
Pontificia Universidad Católica del Ecuador Sede Ibarra, Escuela de Ciencias Agrícolas y Ambientales, Quito, Ecuador
Resumen: Este trabajo presenta la metodología usada para el monitoreo de reptiles y anfibios en las áreas
circunvecinas a la Laguna Cuicocha, de la Reserva Ecológica Cotacachi – Cayapas como parte de una investigación
en conjunto con la PUCE-SI y el investigador Prometeo de la SENESCYT denominada “Biodiversidad de
herpetofauna en áreas influenciadas por ambientes antropizados en la Reserva Ecológica Cotacachi - Cayapas”.
Para establecer esta metodología fueron utilizados tres meses realizando salidas de campo para recorrer diferentes
puntos y locales de la Reserva, esto como estrategia para definir las áreas donde fueron colocadas las trampas de
interceptación y caída (TIC). En total fueron escogidos diez sitios con igual número de trampas instaladas. Fueron
instaladas cincos TICs en ambientes antropizados (senderos turísticos y ganadería) y cinco en ambientes no
antropizados. Además, búsqueda activa y encuentros ocasionales fueron otras dos metodologías utilizadas.
Elastómeros fueron implementados para marcaje e identificación de los animales capturados, además, datos
biométricos y de peso corporal fueron obtenidos de cada individuo. Resultados parciales indicaron tres especies de
anfibios: Gastrotheca riobambae, Pristamantis curtipes y Pristamantis unistrigatus. En el caso de reptiles, dos
especies fueron reportadas: Stenocercus guentheri y Pholidobolus montium.
Palabras clave: Monitoreo, reptiles, anfibios, TICs.
Abstract: This paper presents the methodology used for monitoring reptiles and amphibians in the surrounding
areas to the Laguna Cuicocha Ecological Reserve Cotacachi – Cayapas, as part of an investigation in collaboration
with the PUCE-SI and researcher Prometeo SENESCYT called "Biodiversity herpetofauna influenced by
anthropogenic environments in areas Ecological Reserve Cotacachi - Cayapas". In order to apply this methodology
We spent three months conducting field trips to explore different points and places of the Reserve. The strategy to
define these areas was placed with pit fall (TIC). A total of ten sites were chosen with the same number of tramps
installed. They were installed five TIC in anthropogenic environments (tourist trails and livestock) and five nonanthropogenic environments. In addition, active search and occasional meetings were used two more
methodologies. Elastomers were implemented for marking and identification of captured animals; we obtained
further data as biometric and body weight from each individual. Partial results indicate three species of amphibians:
Gastrotheca riobambae, Pristamantis curtipes and Pristamantis unistrigatus. In the case of reptiles, two species
were reported: Stenocercus guentheri and Pholidobolus montium.
Key words: Monitoring, reptile, amphibian, pitfalls.
1
1. INTRODUCCIÓN
En el ámbito de la fauna salvaje, el monitoreo puede ser
entendido como un proceso de colecta, análisis y
sistematización de informaciones de una población o especie
silvestre que es direccionado a la realización de una gestión o
manejo adecuado de ese grupo de animales o individuos. La
conservación de la biodiversidad, entre otros, requiere datos
de monitoreo consistentes en tiempo y espacio y que pueden
servir como banco de datos para inferir el tamaño poblacional
o abundancia de la especie (MacKenzie, 2005) o datos sobre
distribución y abundancia, descripción de localización y
condiciones de hábitats esenciales y problemas que puedan
afectar adversamente a las especies y sus hábitats (DeWan y
Zipkin, 2010).
[email protected]
Así, entre otros, el monitoreo puede ser utilizado para apoyar
y evaluar programas de recuperación de poblaciones de
especies amenazadas (Seidensticker, 2010); planear
programas de manejo de recursos naturales y fauna salvaje
(Althoff et al., 2004; Bisbal, 2001; Ringold et al., 1999);
evaluar el status de la población y sus potenciales amenazas
(DeWan y Zipkin, 2010) y monitorear los riesgos genéticos
sobre las poblaciones silvestres afectadas por translocación
(Laikre et al., 2010).
La construcción y realización de emprendimientos humanos
pueden considerarse factores determinantes para la pérdida
de biodiversidad. El desarrollo de estos proyectos está
relacionado con la pérdida y fragmentación del hábitat de
especies silvestres que pueden estar amenazadas o en peligro
de extinción.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
7
Genoy-Puerto Alexander1; Hernández Martinez Noelia2
_______________________________________________________________________________________________________________________________
La Reserva Ecológica Cotacachi-Cayapas (RECC), que por
su ubicación geográfica está dentro de dos puntos calientes
para la biodiversidad (hotspots del Chocó y Andes), puede
considerarse una región ecuatoriana con gran número de
fauna con endemismo del Chocó (Parker y Carr, 1992). Sin
embargo, la Reserva enfrenta diferentes amenazas para la
conservación de la fauna en su región, a saber, pérdida de la
cobertura vegetal, minería, construcción de obras de
infraestructura (carreteras, antenas etc.), crecimiento
demográfico y turismo (MAE, 2007). El objetivo
fundamental de este trabajo fue describir las metodologías de
monitoreo de herpetofauna en las áreas circunvecinas de la
laguna Cuicocha, haciendo una comparación entre ellas para
ver cuál es la más adecuada para el monitoreo de
herpetofauna, tanto en ambientes antrópicos como naturales.
Este trabajo soportará a futuro un programa de monitoreo de
herpetofauna, que describa el estado de esas poblaciones en
áreas influenciadas por ambientes antrópicos y determine, si
fuera el caso, programas de manejo de esas poblaciones.
metodologías fueron adaptadas para las condiciones de alta
montaña que tiene la laguna, como además se tomó cuidado
de los requerimientos de logística, de infraestructura y
presupuesto con los que contaba el proyecto.
La metodología que necesitó elaborarse y construirse fue la
de las TICs. Búsqueda activa y encuentros ocasionales fueron
realizadas ocasionalmente.
TICs: Una vez establecidos los diez puntos, fueron
construidas las trampas. Como se observa en la Figura 1,
cada trampa tenía un formato en ‘Y’, siendo que en las partes
finales de la figura fueron enterrados tachos plásticos de 75
litros, como también en la parte de interceptación de la figura
para un total de cuatro tachos. La distancia que separó un
balde de otro fue de cinco metros. Entre cada balde se
colocaron estacas que sirvieron de anclaje para posicionar
malla de construcción y así terminar de dar forma a la ‘Y’ de
la TIC.
2. MARCO TEÓRICO/METODOLOGÍA
La zona de estudio fue el área circunvecina de la laguna de
Cuicocha, que se encuentra dentro de la RECC, esto para
poder salvaguardar evidentes problemas de logística,
infraestructura, de tiempo y económicos que supondría
montar un monitoreo de herpetofauna en toda la Reserva,
que, según el MAE (2007), es de 243 638 hectáreas.
Para el establecimiento de la metodología de monitoreo se
realizaron tres etapas, a saber, salidas exploratorias,
implantación de metodologías y salidas de monitoreo.
Salidas exploratorias
Para obtener información más precisa y delimitar las áreas
influenciadas por actividades antrópicas dentro del área
escogida, se realizaron las visitas exploratorias. Fueron
utilizados tres meses (abril, mayo y junio 2014) para realizar
salidas de campo para recorrer diferentes puntos de la
Reserva.
En ellas se evaluó las áreas circunvecinas a la laguna,
determinando cinco puntos de monitoreo que estaban en
ambientes influenciados por factores antrópicos. Se
determinaron dos factores, ganadería y senderos turísticos.
De igual forma, como parámetro comparativo, se realizó el
monitoreo con cinco puntos en áreas internas de la Reserva
que no estaban sobre influencia de ambientes antrópicos. En
este aspecto se tuvo en cuenta la viabilidad de terreno y
ambiental de las áreas para colocar las diez Trampas de
interceptación y caída (TICs).
Implantación y descripción de metodologías
Las técnicas utilizadas en este estudio han sido validadas y
recomendadas por investigaciones similares en la región
tropical andina, como además se tuvo en cuenta los conceptos
básicos dados por ellas al elaborar estos proyectos (Landres
et al., 1988; Maldonado, 2007; Manzanilla y Péfaur, 2000;
Noon et al., 2012; Ortega-Andrade y Tobar-Suárez, 2011;
Rueda et al., 2006; Schemnitz et al., 2009). Así, esas
Figura 1. Implantación de TICs. Fotografía que muestra el formato ‘Y’ que
cada trampa adquirió, puede observarse las mallas de construcción que
limitan el paso del individuo direccionándolo al final de la línea donde está
el tacho.
Fuente: Autores.
La inspección se realizó en cada TIC dos veces al día, a las
8:00 de la mañana y a las 15:00 de la tarde. Cada tacho fue
inspeccionado tomando el cuidado de no lesionar algún
animal que por su tamaño y configuración de piel no fuera
fácil de reconocer.
Búsqueda activa: Se realizó en un transecto lineal de 500
metros establecido en un corredor turístico que rodea la
laguna. La utilización de este transecto solo se dio dos únicas
veces, en el periodo de la tarde, esto en consecuencia de tener
personal suficiente y tiempo para recorrer el transecto
propuesto y teniendo en cuenta lo escarpado del terreno para
poder realizar un mayor número de transectos.
Dos observadores, cada uno apostado a lado y lado de la ruta,
realizaron búsqueda activa; con la ayuda de gancho
herpetológico y guantes de carnaza se inspeccionó debajo de
rocas y hojarasca y entre vegetación aledaña al transecto para
capturar reptiles y anfibios (Figura 2). La distancia entre el
transecto y el observador-captor no fue mayor de un metro.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
8
Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha
_________________________________________________________________________________________________________________________
guantes cortos de carnaza para reptiles, procediendo a su
identificación. Una vez capturado el animal, se comprobaba
si era una recaptura observando la fluorescencia del
biopolímero con luz ultravioleta, si así era, se anotaba en la
planilla de campo, en caso contrario, se procedía a su
marcación. Para la marcación, se utilizó un kit de marcación,
Visible Implant Elastomer Tags ® (Northwest Marine
Technology, Inc. Ben Nevis Loop Rd Shaw Island, WA,
USA). Los anfibios fueron marcados en la parte interna de la
pata posterior y los reptiles en el primer tercio de la cola,
siguiendo un código de colores para su identificación en una
posible recaptura.
Figura 2. Búsqueda activa. Fotografía de un Pristamantis curtipes
encontrado cuando fue inspeccionada una bromelia cercana al transecto
propuesto para monitoreo.
Fuente: Autores.
Encuentros ocasionales: Ante el avistamiento ocasional de
algún reptil y/o anfibio durante el desplazamiento para alguna
TIC o en inmediaciones de esta (Figura 3), se intentó su
captura y posterior manejo de registro. Se implantaron redes
pequeñas y/o guantes de carnaza para restringir el animal.
Finalizada la marcación, se midieron parámetros
morfométricos de cada individuo. Las variables que se
midieron para anfibios y reptiles fueron la longitud rostrocloaca y longitud de la cola, longitud de pie y manos, ancho
corporal y de la cabeza. Además, se registró su peso. Cada
individuo fue identificado hasta el nivel taxonómico de
género. Cuando fue posible, otros parámetros fueron
obtenidos: sexo, edad relativa y variables ambientales como
temperatura y humedad relativa.
3. RESULTADOS Y DISCUSIÓN
Monitoreo de herpetofauna
Figura 3. Encuentro ocasional de anfibio. Fotografía que muestra un
Pristamantis unistrigatus que fue localizado en la malla de una TIC.
Fuente: Autores.
El tiempo efectivo de colecta fue un mes y medio (de
septiembre a octubre 2014), lo que impide tener resultados
representativos de estas poblaciones. En total, fueron
registrados 16 anfibios y 28 reptiles. Gastrotheca riobambae
(2), Pristamantis curtipes (10) y Pristamantis unistrigatus (4)
fueron las especies de anfibios encontradas. Stenocercus
guentheri (18) y Pholidobolus montium (10) fueron las
especies de reptiles reportadas. Esto también explicaría la
baja tasa de recaptura (un reptil, S. guentheri y dos anfibios,
P. unistrigatus), la cual, una vez incrementada, aumentaría la
posibilidad de establecer los parámetros poblacionales que se
querían en un monitoreo más profundo. En las Figuras 4 y 5
se observan individuos de las especies capturadas y marcadas
durante el periodo efectivo de monitoreo.
A
B
Monitoreo
El método utilizado fue el de captura - marcación – recaptura,
en donde se estima el tamaño de la población de estudio en
base a la recaptura de individuos que han sido capturados y
marcados previamente por metodologías de monitoreo como
las aquí propuestas.
C
En las salidas de monitoreo ante la constatación de un animal
en la TIC, en la búsqueda activa en el transecto o en un
encuentro ocasional, se capturó el(os) reptil(s) y/o anfibio(s);
se realizaron identificación y marcación de los individuos
capturados; se les tomó parámetros biométricos y finalmente
se liberaron.
Personal entrenado en captura y restricción física tomaba el
animal, con guantes sin talco para el caso de anfibios y con
Figura 4. Anfibios monitoreados. A. Pristamantis curtipes (n=10). B.
Pristamantis unistrigatus (n=4). C. Gastrotheca riobambae (n=2).
Fuente: Autores.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
9
10
Genoy-Puerto Alexander1; Hernández Martinez Noelia2
_______________________________________________________________________________________________________________________________
A
metodologías adecuadas para la captura de ranas y sapos. Ver
Figura 6.
B
Figura 5. Reptiles monitoreados. A. Pholidobolus montium (n=10). B
Stenocercus guentheri (n=18).
Fuente: Autores.
Aunque el porcentaje de recaptura es bajo, se demostró en
campo que el elastómero es visible a simple vista, o con la
utilización de linterna ultravioleta, como lo demuestran otros
estudios; se comprobó igualmente que el kit de elastómeros
no requiere gran logística de transporte y es fácil de utilizar.
En este estudio no se reportó la muerte pos-captura de ningún
animal, lo que posiblemente puede indicar que los
compuestos fueron inoculados correctamente y que no se
causa vías de entradas para enfermedades y/o infecciones y
posterior muerte del animal (Antwis et al., 2014).
En cuanto a la duración y características de las metodologías,
los autores recomiendan y estiman necesario continuar el
estudio con la misma logística, metodología y financiamiento
por un periodo de 18 meses, para que se incluya dos
temporadas de seca y dos de lluvias, de dos semanas por mes
por los tres primeros meses, tres días por semana, dando un
intervalo de un mes, para retomar actividades en los
siguientes tres meses y así sucesivamente hasta completar los
18 meses.
De esta forma se lograría una base de datos sólida, para así
inferir si la herpetofauna es indicadora de biodiversidad en la
Reserva, como seguramente sí podrá serlo. Además, como se
ha recomendado en esta clase de estudio, deberá ser
acompañado por evaluación biótica de flora y abiótica de
suelos (Lajeunesse et al., 1995) y tener una evaluación de sus
datos para saber si existieron efectos negativos de las técnicas
empleadas (Jewell, 2013).
Metodologías de monitoreo
Tomando en cuenta capturas y recapturas (47), se analizó la
validez de las metodologías utilizadas y la relevancia que
tuvo cada una de ellas en los reptiles y anfibios. En cuanto a
la validez de metodologías, las TICs resultaron mucho más
efectivas con un 65,96 % (31/47) de los animales
interceptados por este método, frente a las demás
metodologías empleadas, como son la búsqueda activa con
un 23,40 % (11/47) y los encuentros ocasionales un 10,64 %.
(5/47).
Tomando en cuenta si el animal era reptil y anfibio, la
metodología de captura más efectiva para reptiles fue las
trampas de interceptación y caída, con 27 individuos
capturados (93,10 %) contra dos encuentros ocasionales
(6,90 %). Ya en anfibios, la búsqueda activa se mostró más
efectiv a, con 11 individuos capturados con este método
(61,11 %); sin embargo, las TICs (cuatro= 22,22 %) y los
encuentros ocasionales (tres = 16,67 %) son también
Figura 6. Gráfico de comparación de la efectividad de las metodologías de
muestreo de entre anfibios y reptiles.
BA: Búsqueda activa. EO: Encuentro ocasional. TIC: Trampas de
interceptación y caída
El esfuerzo de muestreo para TICs fue el siguiente: 16 salidas
de campo para el monitoreo, para un total de 100 visitas a las
TICs instaladas. Cada trampa fue visitada dos veces al día,
una en el periodo de la mañana y la otra en el periodo de la
tarde, con un promedio de 6,67 de observadores por visita
realizada.
Los encuentros ocasionales estuvieron relacionados con
hallazgos fortuitos de los individuos, no se puede establecer
un esfuerzo de captura real. La búsqueda activa solo fue
realizada como una técnica complementaria y que en
consecuencia de los requerimientos de personal y tiempo no
fue implementada con una mayor profundidad de tiempo. Sin
embargo, las dos técnicas, como demuestran sus resultados,
son factibles de ser utilizadas en anfibios y reptiles y que
dependiendo del periodo de monitoreo pueden arrojar
resultados medibles e interesantes.
Caracterización de herpetofauna
antropizados y no antropizados
en
ambientes
A continuación se hace una caracterización del número de
individuos encontrados en ambientes antropizados y no
antropizados a lo largo de este estudio. En total fueron
encontrados 47 ejemplares, de los cuales 3 de ellos fueron
recapturas. Como observado en el Figura 7, la mayoría de en
individuos, 36, fueron capturados en ambientes antropizados
y muy pocos, 11, en ambientes no antropizados.
De los 36 individuos en ambientes antropizados los
resultados fueron cercanos. El 44 % fueron anfibios (16/36) y
el 55,56 % fueron reptiles (20/36). De los anfibios 10
Pristamantis curtipes (27,78 %) fue la especie más
representativa. Pristamantis unistrigatus y Gastrotheca
riobambae con 4 (11,11 %) y 2 (5,56 %) individuos fueron
poco representativas. En los reptiles, Stenocercus guentheri
fue el grupo mayoritario con 15 animales (41,67 %).
Pholidobolus montium solo tuvo 5 individuos (13,89 %).
De los 11 especímenes en ambientes no antropizados los
resultados mostraron una diferencia más marca, 18,18 % en
anfibios (2/11) y 81,82 % en reptiles (9/11). Los dos
individuos de los anfibios fueron Pristamantis unistrigatus.
En reptiles, Pholidobolus montium y Stenocercus guentheri
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha
11
_________________________________________________________________________________________________________________________
tuvieron resultados cercanos, 5 (45,45 %) y 4 (36,36 %)
respectivamente.
Figura 7. Grafico que muestra el porcentaje de capturas según especie de
anfibio o reptil en ambientes antropizados o no antropizados.
La variabilidad de estos resultados pueden ser explicados en
razón del poco tiempo disponible para realizar el muestreo.
Sin embargo, demostraron que anfibios y reptiles se
encuentran en los dos ambientes de la reserva y que los
porcentajes de captura se aumentan en los locales
antropizados. Esto último tal vez, sea explicable al analizar
las metodologías de captura utilizadas en cada matriz
(antropizada o no). Al enfrentar las metodologías con las dos
matrices evaluadas (antrópica y no antrópica), se puedo
observar (Figura 8) que los encuentros ocasionales y las TICs
pueden ser aplicadas a las dos matrices. Las TICs superaron
el 50 % de las capturas realizadas en ambientes antrópicos
(21/36 = 58,33 %) y no antrópicos (10/11=90,91 %) y los
encuentros ocasionales fueron el 11,11 % (4/36) y el 9,09 %
(1/11) respectivamente.
La búsqueda activa como dicho anteriormente dependió de
los recursos de personal y logísticos. Sin embargo, cuando
utilizada arrojó un resultado de 30,56 % (11/36) de capturas
en ambientes antropizados. Como observado anteriormente
los anfibios tuvieron pocas capturas en ambientes no
antropizados, así, la utilización de búsqueda activa en estos
lugares podría ayudar a incrementar el seguimiento de estas
poblaciones.
4. CONCLUSIONES
La gestión y manejo de poblaciones silvestres se puede
apoyar con la consecución de conteos de individuos en la
zona albo de interés. Sin embargo, esto debe surgir de un
programa de monitoreo que sea consistente en tiempo y
espacio. Este trabajo cumple con el objetivo de demostrar que
metodologías como las trampas de interceptación y caída, la
búsqueda activa y encuentros ocasionales sirven para
monitorear herpetofauna que pueda estar sobre la influencia
de ambientes antropizados en las áreas circundantes de la
laguna de Cuicocha en la Reserva Ecológica CotacachiCayapas. Los resultados parciales demuestran que estas
metodologías permiten de manera eficaz la captura,
identificación y marcación de reptiles y anfibios y que,
además, los biopolímeros de marcación pueden ser una
herramienta eficaz de marcaje en estos dos taxones. Por otro
lado, estos resultados demuestran que el estudio, si continúa
con las recomendaciones ya dadas de logística y, desde
luego, de financiamiento, podrá en un futuro crear una base
de datos lo suficientemente interesante y representativa de la
comunidad de herpetofauna en la laguna y, así, generar
estrategias de conservación de estas poblaciones silvestres.
AGRADECIMIENTO
Los autores agradecen al Proyecto Prometeo de la Secretaria
Nacional de Educación Superior, Ciencia, Tecnología e
Innovación (SENESCYT) del Ecuador y a la Pontificia
Universidad Católica del Ecuador Sede Ibarra y a su Escuela
de Ciencias Agropecuarias y Ambientales por el apoyo
logístico y financiero a la investigación. También agradecen
el apoyo logístico de campo al Ministerio del Medio
Ambiente, Zonal 1 del Ecuador enmarcado en el permiso
ambiental n° 08-2014-0227-IC-FAU-FLO-DPAI-UPN-MAE.
REFERENCIAS
Althoff, D. P., Rivers, J. W., Pontius, J. S., Gipson, P. S., & Woodford, P. B.
(2004). A comprehensive approach to identifying monitoring priorities of
small landbirds on military installations. Environmental Management, 34(6),
887-902. http://dx.doi.org/10.1007/s00267-004-0023-z
Antwis, R. E., Garcia, G., Fidgett, A. L., & Preziosi, R. F. (2014). Tagging
frogs with passive integrated transponders causes disruption of the cutaneous
bacterial community and proliferation of opportunistic fungi. Applied and
Environmental
Microbiology,
80(15),
4779-4784.
http://dx.doi.org/10.1128/aem.01175-14
Bisbal, G. A. (2001). Conceptual design of monitoring and evaluation plans
for fish and wildlife in the Columbia River ecosystem. Environmental
Management, 28(4), 433-453. http://dx.doi.org/10.1007/s002670010235
DeWan, A. A., & Zipkin, E. F. (2010). An integrated sampling and analysis
approach for improved biodiversity monitoring. Environmental
Management, 45(5), 1223-1230. http://dx.doi.org/10.1007/s00267-010-94577
Figura 8. Grafico que muestra el porcentaje de capturas según la
metodología de monitoreo utilizada en ambientes antropizados o no
antropizados.
Jewell, Z. O. E. (2013). Effect of Monitoring Technique on Quality of
Conservation Science.
Conservation Biology, 27(3), 501-508.
http://dx.doi.org/10.1111/cobi.12066
Laikre, L., Schwartz, M. K., Waples, R. S., Ryman, N., & Group, T. G. W.
(2010). Compromising genetic diversity in the wild: unmonitored large-scale
release of plants and animals. Cell Press, 25(9), 520-529.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Genoy-Puerto Alexander1; Hernández Martinez Noelia2
_______________________________________________________________________________________________________________________________
Lajeunesse, D., Domon, G., Drapeau, P., Cogliastro, A., & Bouchard, A.
(1995). Development and application of an ecosystem management approach
for protected natural areas. Environmental Management, 19(4), 481-495.
http://dx.doi.org/10.1007/bf02471962
Landres, P. B., Verner, J., & Thomas, J. W. (1988). Ecological Uses of
Vertebrate Indicator Species: A Critique. Conservation Biology, 2(4), 316328. http://dx.doi.org/10.1111/j.1523-1739.1988.tb00195.x
MacKenzie, D. I. (2005). What are the issues with presence-absence data for
wildlife managers? Journal of Wildlife Management, 69(3), 849-860.
http://dx.doi.org/10.2193/0022-541x(2005)069[0849:watiwp]2.0.co;2
MAE. (2007). Plan de Manejo de la Reserva Ecológica Cotacachi Cayapas.
Quito, Ecuador: Proyecto GEF Ecuador.
Maldonado, M. M. M. (2007). Monitoreos de anfibios y reptiles terrestres en
áreas de aprovechamiento forestal en bosques de Bolivia. Santa Cruz,
Bolivia: Proyecto BOLFOR / Instituto Boliviano de Investigación en
Bosques de Bolivia.
Manzanilla, J., & Péfaur, J. E. (2000). Consideraciones sobre métodos y
técnicas de campo para el estudio de anfibios y reptiles. Revista de Ecología
Latinoamericana, 7(1-2), 17-30.
Noon, B. R., Bailey, L. L., Sisk, T. D., & McKelvey, K. S. (2012). Efficient
Species-Level Monitoring at the Landscape Scale. Conservation Biology,
26(3), 432-441. http://dx.doi.org/10.1111/j.1523-1739.2012.01855.x
Ortega-Andrade, H. M., & Tobar-Suárez, C. (2011). Tamaño poblacional,
uso de hábitat y relaciones interespecíficas de Agalychnis spurrelli (Anura:
Hylidae) en un bosque húmedo tropical remanente del Noroccidente de
Ecuador.
Papéis
Avulsos
de
Zoologia,
51(1),
1-19.
http://dx.doi.org/10.1590/S0031-10492011000100001
Parker, I. T. A., y Carr, J. L. (Eds.). (1992). Status of Forest Remnants in the
Cordillera de la Costa and Adjacent Areas of Southwestern Ecuador:
Conservation International.
Ringold, P. L., Mulder, B., Alegria, J., Czaplewski, R. L., Tolle, T., &
Burnett, K. (1999). Establishing a regional monitoring strategy: The Pacific
Northwest Forest Plan. Environmental Management, 23(2), 179-192.
http://dx.doi.org/10.1007/s002679900178
Rueda, J. V., Castro, F., y Cortez, C. (2006). Técnicas para el inventario y
muestreo de anfibios: Una compilación. In A. Angulo, J. Rueda-Almonacid,
J. V. Rodríguez-Mahecha & E. La Marca (Eds.), Técnicas de inventario y
monitoreo para los anfibios de la región tropical andina (pp. 135-171).
Bogotá D.C.: Conservación Internacional. Panamericana Formas e Impresos
S.A.
Schemnitz, S. D., Batcheller, G. R., Lovallo, M. J., White, H. B., y Fall, M.
W. (2009). Capturing and Handling Wild Animals. In N. J. Silvy (Ed.), The
wildlife techniques manual (pp. 63-117). Baltimore: Johns Hopkins
University Press.
Seidensticker, J. (2010). Saving wild tigers: A case study in biodiversity loss
and challenges to be met for recovery beyond 2010. Integrative Zoology,
5(4), 285-299. http://dx.doi.org/10.1111/j.1749-4877.2010.00214.x
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
12
Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos
_________________________________________________________________________________________________________________________
13
Materiales Compuestos de Resina Poliéster y la Fracción no
Metálica de Tarjetas de Circuitos Impresos
Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1

1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y
Agroindustria, Quito, Ecuador
Resumen: Las tarjetas de circuitos impresos (PCBs) son la parte fundamental de todos los equipos electrónicos y
constituyen una mezcla compleja de componentes. Este estudio tuvo el propósito de incorporar la fracción no
metálica (FNM) de las PCBs en una matriz de resina poliéster insaturada (RPI), para obtener materiales compuestos
RPI/FNM, y en consecuencia, reutilizar la FNM de las PCBs, disminuir la contaminación ambiental de las mismas
y el costo de materia prima mediante la obtención de un material con características similares a la resina pura. Se
formularon materiales con 20, 30 y 35% en peso de FNM, con dos tamaños de partícula: 0,15-0,075 mm y <0,075
mm. Se realizaron pruebas mecánicas de tracción, flexión y abrasión para determinar el efecto que produce la
incorporación de los residuos (FNM). Además, se realizó una prueba de TCLP y MEB, para caracterizar los
materiales compuestos. Los materiales compuestos formados con 30 y 35% de residuos de tamaño <0,075 mm
presentaron la mayor deformación al pico. Todos los materiales formulados presentan disminución en el esfuerzo a
la ruptura en comparación al material puro. Los materiales que contenían 35% de residuos de tamaño <0,075mm
presentan el valor más alto de esfuerzo a la rotura y la mayor resistencia al esfuerzo de flexión. El módulo de
flexión y de tracción no varió significativamente con la incorporación de los residuos. En cuanto a la abrasión, la
incorporación de los residuos provocó menor desgaste de la superficie expuesta al ensayo, mejorando la resistencia
a la abrasión.
Palabras clave: Materiales compuestos, tarjetas de circuitos impresos, resina poliéster insaturada, residuos
electrónicos, fracción no metálica, reciclaje.
Composite Materials of Polyester Resin and Non- Metallic Fraction
of Printed Circuit Boards
Abstract: Printed circuit boards (PCBs) are the fundamental part of all electronic equipment and they are a
complex mixture of components like epoxy resin, fiberglass and metals. The aim of this study was to incorporate
the non-metallic fraction (NMF) of PCBs in polyester resin composites in order to reuse the NMF, reduce the
environmental impact, and decrease production costs by obtaining a composite material with similar properties of
polyester resin. Composites with 20, 25 and 35% and two particle sizes 0,15-0,075 mm and <0,075 mm were
formulated. Tensile, flexural and abrasion tests were conducted to determine the effect of the NMF incorporation.
Moreover, a TCLP test and SEM were conducted in order to characterize the material. The stress at pick of
composites with 30 and 35% and particle size <0,075 mm of residues showed the highest value. All materials
exhibit a decrease of values of tensile properties compared with pure material. However, composites that contained
35% of NMF and particle size <0,075mm have the highest stress at pick value (17,36 Mpa). Likewise, this
composite presented the highest resistance to flexural stress (58,50 MPa), which represents an increase of 0,5%
compared with the pure material. The flexural and tension modulus did not vary significantly with incorporation of
NMF. Addition of NMF caused less wastage on the surface exposed to abrasion: the lowest value of weight loss
was presented by composites with 35% of particle size <0,075 mm which showed a decrease of 42.85% in weight
with reference to the pure material.
Keywords: Composite, printed circuit boards, unsaturated polyester resin, electronic waste, non-metallic fraction,
recycling.
1
1. INTRODUCCIÓN
Los residuos de aparatos electrónicos son parte de los
residuos sólidos que se generan en el mundo, debido a que
[email protected]
éstos (como celulares y computadoras) se renuevan en un
tiempo corto de 3 a 5 años. Las Naciones Unidas estiman que
entre 20 y 50 millones de toneladas de basura proveniente de
residuos eléctricos y electrónicos (o basura electrónica) se
producen alrededor del mundo cada año. Esto representa
representara más del 5 % de toda la basura municipal
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
14
Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
(Cobbing, 2008). Estos residuos requieren de un tratamiento
adecuado porque si se los desecha producen un gran impacto
ambiental debido a sus componentes como por ejemplo los
metales pesados, retardantes a la llama bromados, entre otros
(Román, 2014).
Las placas de circuitos impresos son la plataforma sobre la
cual los elementos microelectrónicos son colocados,
proporcionan las interconexiones eléctricas entre sus
componentes, se encuentran en prácticamente todos los
aparatos eléctricos y electrónicos. Estas placas son una
mezcla compleja de fibra de vidrio, resina polimérica y
metales. Debido a esto y sus características hacen que su
separación y reciclaje se dificulte (LaDou, 2006).
El reciclaje de estas placas consiste en la recuperación de la
fracción metálica y la fracción no metálica. Esta última
corresponde entre el 70 % y 80 % del peso total de las placas.
Esta fracción no metálica está comprendida por fibra de
vidrio (65 %), resina epóxica (32 %), impurezas (cobre:<3 %,
soldadura<0,1 %) y retardantes a la llama bromados (Guo et
al., 2009)
La disposición y recuperación de la fracción no metálica de
los residuos de los aparatos electrónicos tiene un alto impacto
ambiental debido a su contenido de sustancias peligrosas
como retardantes a la llama, cadmio y plomo, lo cual implica
un alto costo de producción (Wager et al., 2011)
Existen varias técnicas de reciclaje de la fracción no metálica
de las tarjetas de circuitos impresos, como el reciclaje
químico, que consiste en la descomposición de los polímeros
en sus monómeros o compuestos químicos, y el reciclaje
físico, el cual combina la fracción no metálica con diferentes
materiales los cuales pueden ser plásticos, concreto o
materiales viscoelásticos, formando un material compuesto y
mejorando las propiedades de la matriz utilizada como
resistencia, tracción, durabilidad y permeabilidad (Guo et al.,
2008).
Por otro lado, las resinas poliéster insaturadas son producto
de la policondensación de ácidos saturados e insaturados con
un diol. Tienen gran aplicación en la industria ya que al curar
se vuelven sólidos termoestables, que pueden utilizarse en
forma pura, con cargas o como material reforzado, esto
debido a su bajo costo, fácil procesamiento, buena resistencia
química y buenas propiedades mecánicas. Por ejemplo la
resina poliéster puede ser reforzada incluso con fibra de coco
mejorando sus propiedades mecánicas con un 20 % de fibras.
(Delgado et al., 2014; Deli et al., 2013).
Por estos motivos, el objetivo principal del presente proyecto
es incorporar la fracción no metálica de las tarjetas de
circuitos impresos en una matriz de resina poliéster
insaturada con el fin de producir un material compuesto que
presente mejores o similares propiedades mecánicas (tracción
flexión y abrasión) que el material de resina poliéster puro;
además de caracterizar al material mediante pruebas de TCLP
(Procedimiento para determinar las Características de
Toxicidad del Lixiviado por sus siglas en ingles) y MEB
(Microscopía Electrónica de Barrido) .
2. METODOLOGÍA
2.1 Materiales
Los reactivos utilizados fueron: resina poliéster insaturada,
octoato de cobalto y peróxido de metil-etil-cetona. Se utilizó
la fracción no metálica (FNM) de las tarjetas de circuitos
impresos para la formación de los materiales compuestos. Se
obtuvieron previamente las FNM de tamaños de partícula:
0,15-0,075 mm y <0,075 mm.
2.2 Producción de los materiales compuestos de resina
poliéster y FNM de tarjetas de circuitos impresos.
Inicialmente fue extraída la fracción no metálica de las
tarjetas de circuitos impresos, esto se realizó mediante un
proceso de molienda y de separación gravimétrica utilizando
un molino de martillos y una mesa de separación
gravimétrica respectivamente. Utilizando un tamiz se separó
la FNM obtenida en dos tamaños: 0,15-0,075 mm y <0,075
mm.
Para la elaboración de los materiales compuestos se colocó
resina poliéster insaturada en un envase plástico, a este se
añadió 2 % de peróxido de metil-etil-cetona y 1 % de
catalizador octoato de cobalto, se agitó durante 15 segundos y
se añadió inmediatamente la fracción no metálica. La mezcla
fue colocada en moldes de tamaños correspondientes a los
ensayos mecánicos a realizarse.
Se formularon materiales con 20, 30 y 35 % de carga con los
dos tamaños de partícula mencionados, es decir, se
obtuvieron un total de 6 tipos de materiales compuestos a los
cuales se midieron sus propiedades mecánicas de tracción,
flexión y abrasión.
2.3 Ensayos de tracción
Los ensayos de tracción fueron llevados a cabo en una
máquina universal de ensayos marca INSTRON modelo 1011
bajo la norma ASTM D3039 “Método de prueba estándar
para propiedades de tracción para materiales compuestos con
matriz polimérica”. Las probetas utilizadas tuvieron forma
rectangular de 1 cm de ancho, 14 cm de largo y 0,3 cm de
espesor (ASTM D3039, 2008).
Se realizaron los ensayos de tracción sobre un total de 10
probetas tanto para la muestra sin carga así como para cada
concentración y tamaño de partícula formulado inicialmente.
Los resultados obtenidos fueron de deformación al pico,
esfuerzo al pico y módulo de Young.
2.4 Ensayos de flexión
Los ensayos de flexión se realizaron en la maquina universal
de ensayos marca INSTRON modelo 1011 bajo a norma
ASTM D7264 “Método de pruebas estándar para propiedades
de flexión para materiales compuestos con matriz
polimérica”, las probetas tuvieron la misma forma y
dimensiones utilizadas en los ensayos de tracción (ASTM
D7264, 2007).
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
15
Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos
_________________________________________________________________________________________________________________________
2.5 Ensayos de abrasión
Los ensayos de abrasión se realizaron en un abrasímetro
rotatorio marca Taber modelo 5130, bajo la norma ASTM
G195 “Guía estándar para la realización de pruebas de
desgaste utilizando un abrasímetro rotatorio” (ASTM G195,
2013).
Se ensayaron 3 probetas tanto para la muestra sin carga como
para cada concentración y tamaño de partícula formulado
inicialmente. Las probetas fueron placas cuadradas de 10 cm
por lado.
2.6 Análisis de determinación de toxicidad de lixiviados
(TCLP)
Se realizó el análisis TCLP para el material compuesto de
resina poliéster insaturada y 35 % de la fracción no metálica
de tarjetas de circuitos impresos. Para esto se tomaron 10 g
de muestra representativa, se colocó la muestra en un vaso de
precipitación, se añadieron 200 mL de agua destilada y 0,5
mL de ácido acético ya que el análisis se lleva a cabo a pH 4,
y se dejó en agitación por 21 horas. Este análisis se lo realizó
siguiendo el método 1311 de la EPA (EPA, 1992).
Los resultados obtenidos en el presente proyecto fueron
comparados con los resultados obtenidos por LaDou (2006)
con el fin de evaluar el encapsulamiento de los residuos en la
matriz de resina poliéster insaturada.
2.7 Microscopía electrónica de barrido
El material que presentó los mayores valores en cuanto a
propiedades mecánicas fue analizado mediante microscopía
electrónica de barrido (MEB) con el equipo Tescan con
analizador de Rayos X Quantax. El material fue cortado para
obtener una superficie plana y revestido de oro para aumentar
su conductividad, mejorando así la imagen visualizada en el
microscopio. Los parámetros utilizados fueron los siguientes:
10kV de voltaje de aceleración, tipo de señal electrones
secundarios y 300X, 500X, 1 000X y 2 000X aumentos.
3. RESULTADOS Y DISCUSIÓN
3.1 Producción de los materiales compuestos de resina
poliéster y FNM de tarjetas de circuitos impresos.
Después de la separación gravimétrica se determinó que las
tarjetas de circuitos impresos están compuestas
aproximadamente por 67 % de fracción no metálica, lo cual
implica que el componente mayoritario de las tarjetas son
componentes no metálicos que pueden ser resinas o fibra de
vidrio.
En cuanto a la producción de los materiales compuestos, se
tuvieron complicaciones al tratar de incorporar la fracción no
metálica con mayor tamaño, es decir 0,15-0,075 mm,
principalmente en los materiales con 30 y 35 %. Esto se debe
principalmente a que por la alta viscosidad de la mezcla con
la resina poliéster, no se logró obtener un material uniforme
ocasionando superficies irregulares en la parte superior de las
placas.
En los materiales formados con 20 % del material de tamaño
0,15-0,075 mm y todos los materiales compuestos con
tamaño <0,075 mm, se obtuvo una buena dispersión y
distribución de la carga dentro de la matriz de resina
poliéster.
3.2 Ensayos de tracción
En la Figura 1 se muestran los resultados obtenidos en cuanto
a la deformación al pico en los ensayos de tracción. Se puede
observar una disminución de la deformación al pico del
material compuesto con residuos de tamaño de partícula
0,15-0,075 mm con respecto al material puro. Para el material
compuesto con residuos de tamaño de partícula <0,075 mm
se observa un aumento de la deformación en relación al
material puro cuando se incorporó 30 y 35 % de residuos. La
desviación estándar de los resultados obtenidos se pudo
generar a causa de ciertos errores sistemáticos en la
obtención de los datos debido principalmente al equipo
utilizado.
En la Figura 2 se presentan los resultados obtenidos de
esfuerzo al pico en los materiales compuestos reforzados con
los residuos de tarjetas de circuitos impresos. Se puede
observar que los menores esfuerzos se obtienen para los
materiales compuestos por residuos de tamaño 0,15-0,075
mm. Esto se debe principalmente a la alta viscosidad de que
presentaron los materiales formados con este tamaño de
residuos, especialmente los de mayor concentración (30 y
35 %). Esta alta viscosidad produjo superficies irregulares
que ocasionaron puntos de falla en los ensayos de tracción.
Para los materiales compuestos con residuos de tamaño
<0,075 mm se observaron los mayores valores de esfuerzo al
pico, respecto a los demás materiales compuestos obtenidos.
5,00
4,00
Deformación al pico [%]
Al igual que en los ensayos de tracción, se realizaron los
ensayos de flexión sobre 10 probetas tanto para la muestra sin
carga como para cada concentración y tamaño de partícula
formulado inicialmente. Los resultados obtenidos fueron de
deformación al pico, esfuerzo al pico y módulo de flexión.
3,00
2,00
1,00
0,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 1. Resultados de deformación al pico en función de la concentración
de carga en ensayos de tracción
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
16
Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
compuestos y tan solo un 0,5 % menor al valor de esfuerzo al
pico presentado por el material puro. Es decir, este material
compuesto presenta similares propiedades en cuanto a flexión
que el material puro.
25,00
15,00
10,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 2. Resultados de esfuerzo al pico en función de la concentración de
carga en ensayos de tracción
Sin embargo, estos resultados no superaron el esfuerzo al
pico soportado por el material puro, es decir, no se logró
reforzar el material en cuanto a ensayos de tracción. Pese a
haber obtenido mayores valores en cuanto al esfuerzo al pico
para los materiales compuestos de resina poliéster, este
esfuerzo es similar al del material puro, por lo cual se puede
indicar que el material compuesto con 35 % de residuos de
tamaño de partícula <0,075 mm tiene propiedades similares a
las del material puro.
En la Figura 3 se muestran los resultados obtenidos del
módulo de Young de los materiales compuestos formulados.
Se puede observar que el módulo de Young aumenta en los
materiales compuestos que presentaron menores valores de
deformación al pico lo cual se debe a que estos dos
parámetros son inversamente proporcionales. Como se
observó el esfuerzo de los materiales compuestos disminuye
en todos los casos en comparación con el material puro por lo
cual el módulo de Young también disminuye para estos
mismos materiales compuestos, debido a la relación
directamente proporcional que existe entre estos dos
parámetros.
3.3 Ensayos de flexión
En la Figura 4 se presentan los resultados obtenidos de
deformación al pico en los ensayos de flexión. Se puede
observar que la deformación al pico disminuyó para todos los
materiales compuestos formulados en los ensayos de flexión,
a excepción de material que contenía 20 % de residuos de
tamaño <0,075 mm.
Esta disminución de la deformación de los materiales que
contiene residuos se debe principalmente a que el
componente principal de la fracción no metálica de las
tarjetas de circuitos impresos es la fibra de vidrio y esta tiene
una deformación menor que la de la resina poliéster
insaturada.
En la Figura 5 se muestran los resultados obtenidos de
esfuerzo al pico de los materiales compuestos en los ensayos
de flexión. Se puede observar que el esfuerzo al pico
soportado por los materiales compuestos de resina poliéster
insaturada disminuyó en relación al material puro. Sin
embargo, se puede observar que el material compuesto que
contenía 35 % de residuos de tamaño <0,075 mm presenta el
valor más alto de esfuerzo al pico de los materiales
De acuerdo a estudios realizados por (Zheng et al., 2009),
cuando se utiliza residuos con tamaño menor a 0,105 mm, la
fibra de vidrio se encuentra liberada incrementando el área de
contacto entre los residuos y la matriz, lo cual beneficia la
transferencia del esfuerzo de flexión desde la matriz hacia las
partículas que lo refuerzan, es por esta razón que los
materiales compuestos mantuvieron sus propiedades
mecánicas con respecto al material puro.
En la Figura 6 se presentan los resultados del módulo de
flexión para cada material compuesto formulado. Se puede
observar que el módulo de flexión incrementa su valor en
comparación con el material puro de resina poliéster
insaturada.
2000,00
Modulo de Young [MPa]]
0,00
1500,00
1000,00
500,00
0,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 3. Resultados del módulo de Young en función de la concentración
de carga en ensayos de tracción
5,00
4,00
Deformación al pico[%]
5,00
3,00
2,00
1,00
0,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 4. Resultados de deformación al pico en función de la concentración
de carga en ensayos de flexión
80,00
Esfuerzo máximo [MPa]
Esfuerzo al pico [MPa]
20,00
60,00
40,00
20,00
0,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 5. Resultados de esfuerzo al pico en función de la concentración de
carga en ensayos de flexión
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Modulo [MPa]
Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos
_________________________________________________________________________________________________________________________
3500,00
3000,00
2500,00
2000,00
1500,00
1000,00
500,00
0,00
0
10
20
30
40
Carga (%)
0.15mm
0.075mm
Figura 6. Resultados del módulo de flexión en función de la concentración
de carga en ensayos de flexión
Los materiales compuestos que presentan mayores módulos
de flexión son aquellos que presentaban mayores valores de
resistencia al esfuerzo como es el caso del material
compuesto con tamaño de partícula <0,075 mm y 35 % de
residuos.
Tabla 1. Resultados de ensayos de abrasión
Diferencia de peso
Tamaño
Carga
de
Ensayo
Ensayo
Ensayo
(%)
Promedio
partícula
1
2
3
Sin carga
0,0283
0,0251
0,0265
0,0266
25 %
0,0116
0,0176
0,0143
0,0145
30 %
0,15 mm
0,0300
0,0227
0,0237
0,0255
35 %
0,0145
0,0171
0,0129
0,0148
25 %
0,0225
0,0255
0,0254
0,0245
30 %
0,075 mm
0,0185
0,0191
0,0168
0,0186
35 %
0,0165
0,0143
0,0147
0,0152
Tabla 2. Resultados del análisis de toxicidad de lixiviados del material
compuesto de resina poliéster
Material compuesto de
resina y 35 % de carga
Concentración (mg/L)
Elemento
3.4 Ensayos de abrasión
En la Tabla 1 se presentan los resultados de los tres ensayos
realizados de abrasión para cada material compuesto de
resina poliéster insaturadas y la fracción no metálica de las
PCBs y sus respectivos promedios.
Los resultados obtenidos en los ensayos de abrasión
demuestran un mejoramiento de la resistencia a la abrasión
de los materiales compuestos con respecto al material puro.
Como se puede observar en la Tabla 1 el promedio de la
diferencia de pesos después de que las placas fueron
expuestas a la abrasión disminuyó para los materiales
compuestos. Los materiales que presentaron los menores
valores de diferencia de peso fueron los que contenía los
residuos de mayor tamaño, siendo el material que contenía
25 % el que presentó el menor valor.
El material que presentó el menor valor de diferencia de peso
de los materiales compuestos con residuos de tamaño <0,075
mm fue el que contenía 35 % de residuos, el mismo que
presentó propiedades de tracción y flexión similares a las del
material sin carga.
3.5 Análisis de determinación de toxicidad de lixiviados
(TCLP)
En la Tabla 2 se presentan los resultados obtenidos del
análisis de toxicidad de lixiviados para el material compuesto
por resina poliéster y 35 % de residuos de tamaño <0,075
mm. En la Tabla 2, también se pueden observar los valores
máximos los cuales corresponden a la concentración de
lixiviados de los residuos puros (FNM) de tamaño <0,075
mm obtenidas en trabajos anteriores (Loyo et al., 2015).
Como se puede observar la concentración de todos los
elementos analizados es menor con respecto a los valores
máximos. Además, se observa que el plomo no excede los
parámetros máximos permisibles (que es de 0,2 mg/L según
la norma técnica de suelo de la ordenanza metropolitana) de
lixiviación en el material compuesto.
17
Zinc
Cobre
Plomo
Cobalto
Plata
Níquel
Cromo
Cadmio
Bario
Arsénico
Mercurio
Selenio
Valor
máximo
del
residuo
1,33
13,38
9,80
0,00
0,01
0,08
<0,01
<0,01
<0,1
<0,1
<0,1
<0,1
Valor
obtenido
0,01
0,06
0,11
0,01
0,01
0,03
<0,01
<0,01
<0,1
<0,1
<0,1
<0,1
3.6 Microscopía electrónica de barrido
En la Figura 7 se puede observar los resultados de la
microscopía electrónica de barrido del material compuesto
por resina poliéster y 35 % de residuos de tamaño <0,075
mm.
En la Figura 7 se puede observar la presencia de formas
tubulares que corresponde a la fibra de vidrio uno de los
mayores componentes de la fracción no metálica, la misma
que se encuentra incrustada en la matriz del material
compuesto. En la Figura 7a) y Figura 7b) se observan
pequeños agujeros de un tamaño de 0,08 mm
aproximadamente lo cual se debe a la adhesión interfacial
débil que existe entre la resina poliéster insaturada y los
residuos.
Estos agujeros no son visibles al momento en que se
producen los materiales compuestos ya que se forman en el
interior de los mismos, (Guo et al., 2008). En la Figura 7c) y
Figura 7d) con mayores aumentos se observar una mala
adherencia entre las fibras y la matriz. Tanto los agujeros
como la mala adhesión influyen en la disminución de las
propiedades mecánicas como se detalló en la sección 3.2 y
3.3
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
18
Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
de materia prima (resina poliéster insaturada), Además, se
puede disminuir la contaminación ambiental causada por
estos residuos eléctricos y electrónicos.
AGRADECIMIENTO
Agradecemos a la Escuela Politécnica Nacional, por el
financiamiento de la investigación, a través de los fondos del
Proyecto Semilla PIS 14-17.
REFERENCIAS
ASTM D3039. (2008). Standard Test Method for Tensile Properties of
Polymer Matrix Composite Materials. Estados Unidos.
ASTM D7264. (2007). Standard Test Method for Flexural Properties of
Polymer Matrix Composite Materials. Estados Unidos.
Figura 7. Imagen del material compuesto de resina poliéster insaturada con
35% de residuos y tamaño de partícula <0,075 mm a) 300 aumentos, b) 500
aumentos, c) 1 000 aumentos y d) 2 000 aumentos
4. CONCLUSIONES
Los materiales formados con residuos de tamaño <0,075 mm
se acoplaron mejor a la matriz de resina poliéster que los
residuos de mayor tamaño.
Los materiales compuestos de resina poliéster instaurada y
residuos de tamaño <0,075 mm fueron los que presentaron
los valores más altos en cuanto a propiedades de tracción y
flexión.
Los materiales compuestos formados con residuos de tamaño
0,15-0,075 mm fueron los que presentaron la menor pérdida
de peso en los ensayos de abrasión.
El material compuesto por 35 % de residuos de tamaño
<0,075 mm, en general, fue el que presentó las propiedades
mecánicas más altas entre los materiales compuestos.
Además, presentó resultados similares a los del material puro.
La producción del material compuesto por 35 % de residuos
de tamaño <0,075 mm es un proceso factible de reciclaje de
la fracción no metálica de PCBs (tarjetas de circuitos
impresos)
Mediante el análisis de toxicidad de lixiviados se comprobó
el encapsulamiento de los residuos dentro de la matriz de
resina poliéster insaturada, ya que las concentraciones de
lixiviados disminuyeron significativamente con respecto al
material puro.
No se logró reforzar el material compuesto (mejorar las
propiedades mecánicas) debido principalmente a la
formación de pequeñas burbujas microscópicas y a la mala
adhesión de los residuos con la matriz de resina poliéster.
Al incorporar la FNM (fracción no metálica) de las PCBs en
una matriz de resina poliéster insaturada, existe la posibilidad
de reducir costos de producción asociados a la disminución
ASTM G195. (2013). Standard Guide for Conducting Wear Tests Using a
Rotary Platform Abraser. Estados Unidos.
Cobbing, M. (2008). Toxic Tech: Not in our backyard, Uncovering the
Hidden
Flows
of
e-Waste.
Greenpeace.
Obtenido
de:
http://www.greenpeace.org/international/Global/international
/planet2/report/2008/2/not-in-our-backyard-summary.pdf (Diciembre, 2015)
Delgado, F., Galeas, S. y Guerrero, V. (2014). Obtención de Materiales
Compuestos Híbridos de Matriz Poliéster Reforzada con Fibras de Coco y
Vidrio para la Elaboración de Tableros. Revista Politécnica. 33 (1). Obtenido
de:
http://www.
revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2/article/vie
w/87/pdf. (Septiembre, 2015)
Deli, D., Ebdon, J., Kandola, K. y Krishman. L. (2013). Blends of
Unsaturated Polyester and Phenolic Resins for Applications as Fire-resistant
Matrices in Fible-reinforced Composites. Part 1: Identifying Compatible,
Co-curable Resin Mixtures. Journal of Materials Science, 48(20), 6929–
6942.
EPA. (1992). Method 1311: Toxicity Characteristics Leaching Procedure,
Obtenido de http://www.epa.gov/osw/hazard /testmethods/sw 846/
pdfs/1311.pdf. (Julio, 2013).
Guo, J., Guo, J. y Xu, Z. (2009). Recycling of non-metallic fractions from
waste printed circuit boards: A review. Journal of Hazardous Materials,
168(2-3), 567-590.
Guo, J., Li, J., Rao, Q. y Zu, Z. (2008). Phenolic Molding Compound Filled
with Nonmetals of Waste PCBs. Environmental Science & Technology,
42(2), 624-628.
LaDou, J. (2006). Printed circuit board industry. International Journal of
Hygiene and Environmental Health, 209(3), 211-219.
Loyo, C., Arroyo, C., Aldás, M. y Montero, R. (2015). Extracción y
caracterización de la fracción no metálica de las tarjetas de circuitos
impresos de computadoras desechadas. Revista Politécnica. 36 (2), 67-72.
Román, I. (2014). eWaste en América Latina: El aporte de los operadores
móviles en la reducción de la basura electrónica 1(1), 1-44. Obtenido de:
http://www.gsma.com/latinamerica/
wpcontentuploads/2014/05/eWasteLatam-spa-Completo.pdf (Julio, 2015).
Wager, P. A., Schluep, M., Muller, E. y Gloor, R. (2011). RoHS regulated
Substances in Mixed Plastics from Waste Electrical and Electronic
Equipment. Environmental Science & Technology, 46(2), 628-635.
Zheng, Y., Shen, Z., Cai, C., Ma, S. y Xing, Y. (2009). The reuse of
nonmetals recycled from waste printed circuit boards as reinforcing fillers in
the polypropylene composites. Journal of Hazardous Materials, 163(2-3),
600-606.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica
_________________________________________________________________________________________________________________________
19
Recuperación de Aluminio a partir de Empaques tipo blister usados
por la Industria Farmacéutica
Erazo Clara1; de la Torre Ernesto1; Endara Diana1

1
Escuela Politécnica Nacional, Facultad de Ingeniería Química y Agroindustria, Quito, Ecuador
Resumen: Se ha desarrollado un proceso para la recuperación de aluminio a partir de empaques farmacéuticos tipo
blister, mediante lixiviación de PVC con solventes orgánicos y fusión de las láminas de aluminio con sales de cloro y
flúor. Las condiciones de lixiviación de PVC se determinaron mediante el uso de acetona y acetato de n- butilo 98 %
de pureza y en solución con etanol al 50 % v/v y 25 % v/v, durante 180 min en intervalos de 30 min cada uno. Las
láminas metálicas recuperadas fueron compactadas y sometidas a ensayos de fusión variando la composición molar de
sales fundentes, porcentaje de carga, temperatura y tiempo, con el fin de establecer las condiciones que permitan la
mayor recuperación de la fase metálica. Los productos fueron caracterizador por difracción de rayos X y
espectrofotometría de chispa. Con base en los resultados, la etapa de lixiviación debe realizarse con acetato de n- butilo
al 98% como solvente, durante 150 min. El proceso de fusión requiere el uso de una carga fundente del 200 % de
composición molar 60 % de NaCl y 40 % de KCl a una temperatura de 750 °C durante 1,75 h. Se logra una
recuperación del 65 % de aluminio metálico con una pureza del 98,57 %.
Palabras clave: Aluminio, recuperación, empaque blister, lixiviación, fusión.
Aluminum Recovery from blister Packaging used by Pharmaceutical
Industry
Abstract: A process for recovering has been developed from pharmaceutical blister packs, by leaching of PVC with
organic solvents and melting the aluminum sheets with chlorine and fluorine salts. Leaching conditions PVC were
determined using acetone and n-butyl acetate pure and solutions with ethanol 50 v/v and 25 % v/v during 180 min in
30 min each one. The metal sheets recovered were compacted and subjected to fusion assays varying the molar flux
salt composition, percentage of load, temperature and time, in order to establish the conditions that allow greater
recovery of the metallic phase. The products were characterizing by DRX and spark spectrophotometry. Based on the
results, the leaching step must be done with n-butyl acetate as solvent 98 % during 150 min. The fusion process
requires the use of a flux loading of 200 %, molar composition of 60 % NaCl and 40 % KCl at a temperature of 750 °
C for 1,75 h. A recovery of 65 % aluminum metal is achieved with a purity of 98,57 %.
Keywords: Aluminum, recovery, blister packaging, leaching, fusion.
1.
requerida en procesos de producción primaria. Además, se
reduce la generación de residuos sólidos hasta del 85 %
(Schlesinger, 2013; Totten y MacKenzie, 2003).
INTRODUCCIÓN
1.1. Reciclaje de aluminio
Un tercio del aluminio que se consume a nivel mundial
proviene de procesos de reciclado. Este metal tiene la
característica de mantener su estructura atómica durante el
proceso de fusión, por lo cual es posible reciclarlo de forma
repetitiva sin perder valor económico ni pureza (Rubinos,
2007)1
La producción secundaria de aluminio presenta una
disminución del 93 % de consumo de energía respecto a la
[email protected]
1.1.1
Fusión de aluminio con sales de cloro y flúor
El principal inconveniente en la fusión de aluminio es la alta
reactividad del material lo cual provoca contaminación en la
superficie. La técnica de fusión que se seleccione debe evitar
el contacto directo con la llama, para esto se utiliza cargas
fundentes que impiden la formación de óxidos (Román,
1992). El proceso de reciclaje de aluminio utiliza sales como
carga fundente con el fin de proteger el material de la
oxidación, remover la capa de óxido formada y promover la
coalescencia de gotas de aluminio. Estas sales deben cumplir
con las siguientes características: tener puntos de fusión por
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
20
Erazo Clara1; de la Torre Ernesto1; Endara Diana1
_______________________________________________________________________________________________________________________________
debajo de los 720 °C, no ser higroscópicos, no ser causante
de impurezas y tener presión de vapor baja. El principal
inconveniente en el proceso es la producción de un residuo
que debe ser tratado antes de su disposición final (Totten y
MacKenzie, 2003).
Generalmente, la carga fundente consiste en una mezcla
equimolar entre cloruro de sodio (NaCl) y cloruro de potasio
(KCl). Con la finalidad de aumentar la recuperación de
aluminio, se suelen añadir sales de flúor que facilitan la
coalescencia de las gotas formadas durante la fusión (Totten
y MacKenzie, 2003).
En el año 2010, Yépez realizó un estudio sobre el reciclaje de
aluminio de desechos industriales y electrónicos utilizando
sales de cloro y flúor. El análisis incluyó disipadores de calor,
limallas de extrusión, limallas de corte de perfiles y escoria
de fusión de chatarra. Al trabajar con limallas de corte de
perfiles, se obtuvo recuperaciones menores al 90 % debido al
tamaño de partícula de la materia prima y la facilidad de
oxidación (Yépez, 2010).
1.2. Reciclaje de empaques farmacéuticos tipo blister
Los empaques blister son envases que contienen en su
interior medicamentos. Existen dos tipos, el primero tiene
una cavidad de plástico y el recubrimiento se constituye por
plástico, papel y/o aluminio; el segundo, la cavidad y el
recubrimiento son de aluminio (Pilchik, 2000). En la Figura
1, se observa la configuración básica de los empaques tipo
blister.
Los empaques blister se componen por el film formado, el
material de cubierta, el recubrimiento de sellado térmico y las
tintas de impresión. Generalmente, del 15 - 20 % corresponde
al material de cubierta, mientras que del 80-85 %
corresponde al film formado (Pilchik, 2000).
El film formado es el material que aloja el producto, su
selección depende de las propiedades y el grosor requerido
para el empaque. Generalmente, el material más utilizado es
el policloruro de vinilo (PVC) debido a su alta resistencia
química, bajas permeabilidades a aceites, grasas y
aromatizantes, excelente termoformalidad y bajo costo. Sin
embargo, existen empaques blister que utilizan polipropileno
(PP), tereftalato de polietileno (PET), clorotrifluoroelileno
(CTFE) y cloruro de polivinilideno (PVDC) como film
formado (Pilchik, 2000).
El material de cubierta proporciona la base estructural del
empaque además debe evitar la transferencia de vapor de
agua al interior. Su selección depende del tamaño, forma y
peso del producto. Generalmente suele ser una lámina de
papel aluminio o una combinación de papel/aluminio o
papel/PET/aluminio (Pilchik, 2000).
El film formado y el material de cubierta son sellados
mediante la aplicación de calor. El recubrimiento de sellado
térmico asegura la resistencia a condiciones climáticas no
favorables, resistencia a la abrasión, claridad y brillo (Pilchik,
2000).
La problemática de reciclaje de los empaques tipo blister
radica en los inconvenientes de tratamiento por incineración
del PVC presente en el envase. Durante los procesos de
incineración de PVC se genera dioxinas, razón por la cual el
uso de este tipo de material plástico ha sido cuestionado
durante los últimos años. La generación de este tipo de
compuestos es considerada una amenaza tanto para la salud
humana como para el medio ambiente por lo cual es
necesario establecer una prevención de contaminación
reduciendo la práctica de este tipo de procesos (Belliveau,
2003).
Existen dos procesos orientados al tratamiento de productos
que incluyen PVC en su composición. La recuperación de
PVC de materiales compuestos mediante el proceso Vinyloop
y la combustión en dos etapas con recuperación de HCl
(Saeed, 2004; VinyLoop, 2013).
El PVC a temperatura normal es resistente a ácidos, álcalis y
sales corrientes. Sin embargo, al entrar en contacto con
algunos disolventes como el benceno y la acetona, es atacado
y como producto se tiene el material hinchado o esponjado
(Nutsch, 2000).
Los materiales rígidos de PVC al tener contacto con
hidrocarburos aromáticos y clorados, cetonas, ésteres, esteres
cíclicos, penetran en su estructura causando inflamación y
reblandecimiento. La solubilidad es dependiente directa de la
concentración del disolvente (González, 1997)
2. METODOLOGÍA
2.1. Caracterización física química y mineralógica de los
empaques usados por la industria farmacéutica
2.1.1 Caracterización física
Plástico termoformado
Los empaques tipo blister fueron caracterizados físicamente
mediante la determinación del contenido de humedad,
volátiles, cenizas y carbón fijo. Para esto se utilizó los
procedimientos basados en las normas ASTM D3173-87,
ASTM D3174-12 y ASTM D3175-02.
Producto
Recubrimiento
Figura 1. Configuración básica empaque blister
(Pilchik, 2000). Modificado
La caracterización del material polimérico se realizó por
espectros de infrarrojo en el equipo SpectrumOne marca
Perkin Elmer. Además, se determinó la densidad real y
aparente.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
21
Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica
_________________________________________________________________________________________________________________________
2.1.2 Caracterización química
La caracterización química de la lámina metálica de los
empaques farmacéuticos tipo blister, se realizó mediante
espectrofotometría de chispa en el equipo Bruker Q4
TASMAN en el laboratorio del Departamento de Metalurgia
Extractiva de la Escuela Politécnica Nacional.
Por su parte, el film plástico fue laminado en una prensa
marca CAEVER, modelo 2112 -104 a 150°C bajo una
presión de 20000 lb/plg2. Mediante el uso de un
Espectrofotómetro de Infrarrojo por Transformadas de
Fourier marca Perkin Elmer, modelo SpectrumOne, se corrió
el espectro de la muestra por el método de transmitancia. El
ensayo se realizó en el laboratorio del Centro de
Investigación Aplicada a Polímeros de la Escuela Politécnica
Nacional.
Una vez transcurrido el tiempo se apaga la fuente de
calentamiento, se retiran los cartuchos de celulosa y se extrae
el material remanente en su interior. Finalmente se realiza la
recuperación del solvente dentro del equipo de extracción
soxhlet.
Las láminas de aluminio recuperadas por lixiviación se
analizaron químicamente, mediante espectrofotometría de
chispa en el equipo Bruker Q4 TASMAN y
mineralógicamente mediante difracción de rayos X (DRX) en
el equipo D8 Advance Bruker, la cualificación y
cuantificación de cada uno de los compuestos presentes en la
muestra se determinó mediante el uso de los softwares EVA
y TOPAS, respectivamente. Los análisis fueron realizados en
el laboratorio del Departamento de Metalurgia Extractiva de
la Escuela Politécnica Nacional.
2.3. Definición de las mejores condiciones del proceso de
fusión utilizando sales de cloro y flúor
2.1.3 Caracterización mineralógica
La caracterización mineralógica de la parte metálica de los
empaques farmacéuticos tipo blister se realizó con el fin de
determinar la naturaleza de los compuestos que lo
conforman. El análisis se realizó mediante difracción de
rayos X (DRX) en el equipo D8 Advance Bruker. La
cualificación y cuantificación de cada uno de los compuestos
presentes en la muestra se determinó mediante el uso de los
softwares EVA y TOPAS, respectivamente. El análisis fue
realizado en el laboratorio del Departamento de Metalurgia
Extractiva de la Escuela Politécnica Nacional.
2.2. Definición de las mejores condiciones de lixiviación
utilizando solventes orgánicos
La metodología de lixiviación se estableció con base en el
trabajo realizado por Estrella (2013).
Los ensayos de lixiviación se realizaron con la finalidad de
separar el material polimérico de la lámina de aluminio de los
empaques tipo blister. Se utilizó un equipo de extracción
soxhlet de marca Selecta con disponibilidad de 6 dispositivos
con capacidad de solvente de 250 mL cada uno del
laboratorio de Operaciones Unitarias del Departamento de
Ingeniería Química de la Escuela Politécnica Nacional.
Los ensayos se realizaron con acetona y acetato de n- butilo
puros y en solución con etanol 25 % v/v y 50 % v/v. Los
parámetros a variar fueron la concentración del solvente y el
tiempo de lixiviación. Los parámetros constantes fueron la
cantidad de solvente (200 mL), la cantidad de empaque (4 g)
y la temperatura de trabajo (temperatura de ebullición de
cada solvente).
Para cada ensayo se tomaron 4 g de empaque tipo blister, se
introdujeron en cartuchos de celulosa, adicionando 200 mL
del solvente. El equipo se prende hasta llegar a la temperatura
de ebullición del solvente. A partir de la primera gota de
destilado se toma el tiempo de lixiviación. Los ensayos se
realizan durante 30, 60, 90, 120, 150 y 180 min.
La metodología utilizada que se realizó fue establecida con
base en el trabajo realizado por Estrella (2013) y Yépez
(2010).
Los ensayos de fusión de las láminas de aluminio
previamente recuperadas por lixiviación, se realizaron en una
mufla eléctrica marca Lindberg/Blue M modelo BF51728C-1
de 0,064 m3 de capacidad.
Todos los ensayos de fusión utilizaron 2 g de láminas de
aluminio previamente compactadas en una prensa hidráulica
(400 kg/cm2) colocadas en un crisol de barro.
Se definió las mejores condiciones de fusión sobre la
recuperación de aluminio variando la composición molar de
sales fundentes, porcentaje de carga, variación de
temperatura y tiempo.
2.3.1 Evaluación de la composición de las sales dentro de la
carga fundente
Para la determinación de la concentración de las sales dentro
de la carga fundente, se varió la composición molar de NaCl
y KCl, como se muestra en la Tabla 1. Los ensayos se
realizaron durante 2 h a una temperatura de 750 °C y con el
200 % de carga fundente.
Tabla 1. Variación de la composición molar de las sales NaCl y KCl en los
ensayos de fusión
Ensayo
1
2
3
4
5
6
7
8
9 10 11
NaCl
KCl
100
90
80
70
60
50
40
30
20
10
0
0
10
20
30
40
50
60
70
80
90
100
La carga fundente que reportó mayor recuperación de
aluminio fue utilizada para los ensayos posteriores.
2.3.2 Evaluación del porcentaje de carga fundente necesario
Con el fin de evaluar el porcentaje de carga fundente se
realizaron un total de 5 ensayos. Se trabajó con porcentajes
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
22
Erazo Clara1; de la Torre Ernesto1; Endara Diana1
_______________________________________________________________________________________________________________________________
de 100, 200, 300 y 400 % de carga fundente. Además, se
evaluó el proceso sin tomar en cuenta carga fundente. Para
estos ensayos se mantuvieron constantes los parámetros de
tiempo (2 h), temperatura (750 °C), composición de las sales
(definida en el punto 2.3.1).
La cantidad de carga fundente que reportó mayores valores
de recuperación fue utilizada en los ensayos posteriores.
2.3.3 Influencia de la variación de temperatura
La determinación de la influencia de la variación de la
temperatura se realizó manteniendo constantes los parámetros
de tiempo (2 h), composición de sales fundentes (definida en
el punto 2.3.1) y la cantidad de carga fundente (definida en el
punto 2.3.2). Se analizaron ensayos de fusión dentro de un
rango de temperatura de 650 °C a 850 °C, en intervalos de 50
°C cada uno. La temperatura que reportó el valor más alto de
recuperación de aluminio se fijó en los ensayos posteriores.
2.3.4 Influencia de la variación del tiempo de fusión
La determinación del tiempo de fusión se realizó
manteniendo constantes los parámetros de composición de
sales fundentes (definida en el punto 2.3.1) y la cantidad de
carga fundente (definida en el punto 2.3.2) y temperatura
(definida en el punto 2.3.3) Se realizaron un total de 10
ensayos de fusión durante 2,50 h en intervalos de 0,25 h cada
uno. El tiempo de fusión que reportó el valor más alto de
recuperación de aluminio fue utilizado en los ensayos
posteriores.
2.3.5 Influencia de la adición de fluoruro de potasio (KF)
Para la determinación de la influencia de la adición de
fluoruro de potasio (KF) a la carga fundente se realizaron dos
ensayos. Se mantuvo constantes los parámetros que reporten
mayor recuperación de aluminio de los ensayos anteriores: la
composición de la carga fundente (definida en el punto
2.3.1), porcentaje de carga (definida en el punto 2.3.2),
temperatura (definida en el punto 2.3.3) y tiempo (definida en
el punto 2.3.4). La adición de KF se realizó en porcentajes de
5 % y 10 % con respecto a la carga fundente inicial. Se
analizó la influencia de la adición de este reactivo en la
recuperación de aluminio metálico.
equipo D8 Advance Bruker de la Escuela Politécnica
Nacional.
3.
RESULTADOS Y DISCUSIÓN
A continuación, se presentan los resultados al realizar la
metodología planteada en la sección 2.
3.1. Resultados de la caracterización física, química y
mineralógica de los empaques usados por la industria
farmacéutica
3.1.1 Resultados de la caracterización física
La humedad promedio de los empaques farmacéuticos blister
es de 5,13 %. El material volátil tiene un valor promedio de
75,89 %, la temperatura bajo la cual se realiza el análisis
(750 °C) asegura que el material volátil es removido; por
tanto, este valor representa el material polimérico contenido
en el empaque. El porcentaje promedio de cenizas fue de
17,95 %, dicho valor representa el aluminio metálico en
adición a las tintas impregnadas sobre él. Finalmente, el
porcentaje promedio de carbón fijo fue de 6,16 %. La
densidad aparente de los empaques tipo blister, es decir sin
comprimir, tiene un valor de 0,07 g/cm3, lo cual refleja que
ocupan una gran cantidad de volumen. La densidad real
reportó un valor de 1,42 g/cm3.
3.1.2 Resultados de la caracterización química
El material metálico de los empaques tipo blister posee
98,65 % de aluminio (Al) y 1,15 % de hierro (Fe) como
elementos principales. Por su parte, el material polimérico
(transparente y naranja) analizado por espectros de infrarrojo
corresponde a PVC.
3.1.3 Resultados de la caracterización mineralógica
El análisis por DRX muestra la obtención de 99 % de
aluminio metálico. En la Figura 2, se observa el
difractograma de rayos X obtenido.
SIN LIXIVIAR
400
La caracterización química del producto obtenido por fusión,
se realizó mediante espectrofotometría de chispa en el equipo
Lin (Counts)
300
2.3.6 Caracterización del producto obtenido por fusión
200
100
Bruker Q4 TASMAN. Además, la muestra metálica obtenida
fue analizada en un microscopio electrónico de barrido
(MEB), de marca Tescan Vega. Los ensayos fueron
realizados en el laboratorio del Departamento de Metalurgia
Extractiva de la Escuela Politécnica Nacional.
0
4
10
20
30
40
50
60
70
2-Theta - Scale
SIN LIXIVIAR - File: RM-7532 M1.raw - Type: 2Th/Th locked - Start: 3.000 ° - End: 70.000 ° - Step: 0.020 ° - Step time: 1. s - Temp.: 27 °C - Time Started: 15 s - 2-Theta: 3.000 ° - Theta: 1.500 ° - Chi: 0.0
Operations: Y Scale Norm 1.036 | Background 0.000,1.000 | Import
00-004-0787 (*) - Aluminum, syn - Al - Y: 62.51 % - d x by: 1. - WL: 1.5406 - Cubic - I/Ic PDF 3.6 - S-Q 100.0 % -
Figura 2. Difractograma de rayos X de la lámina metálica del empaque tipo
blister
La caracterización mineralógica del producto obtenido por
fusión, se realizó por difracción de rayos X (DRX) en el
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica
_________________________________________________________________________________________________________________________
3.2 Resultados de la definición de las mejores condiciones de
lixiviación utilizando solventes orgánicos (acetona y acetato
de n-butilo)
En esta sección se presentan los resultados de los ensayos de
lixiviación realizados a los empaques farmacéuticos tipo
blister, de acuerdo a la metodología planteada en la sección
2.2. Estos ensayos se realizaron con la finalidad de separar la
capa metálica del material polimérico.
En la Figura 3, se muestra el comportamiento de lixiviación
de empaques tipo blister, al utilizar acetona y acetato de nbutilo como solventes a diferentes concentraciones. La
evaluación se realizó durante 180 min en intervalos de 30
min cada uno.
De acuerdo a los resultados experimentales, se puede
observar que el proceso de separación de la capa metálica de
la polimérica se logra únicamente al utilizar solventes puros.
Tanto para la acetona como para el acetato de n- butilo se
alcanza una pérdida de masa de aproximadamente el 80 % a
los 150 min de lixiviación. A partir de este tiempo los valores
se mantienen constantes. El producto obtenido son láminas
metálicas.
El porcentaje de pérdida de masa disminuye durante el
proceso de lixiviación al utilizar solventes diluidos con
alcohol etílico. Como se puede observar, se logran
recuperaciones máximas de alrededor del 40 % para los
solventes diluidos al 50 % v/v y del 18 % para solventes
diluidos al 25 % v/v.
23
Los ensayos realizados muestran que el mejor proceso de
lixiviación de empaques tipo blister, es aquel que utiliza
acetato de n- butilo al 98 % durante un tiempo de 150 min.
Se realizó un ensayo reutilizado el solvente sometido a
lixiviación. El resultado refleja que la eficiencia del proceso
no disminuye debido a que la destilación asegura la
separación del material polimérico disuelto y el solvente.
El análisis químico realizado por espectrofotometría de
chispa muestra que las láminas obtenidas como producto de
la lixiviación poseen 98,57 % de Al y 0,73 % de Fe como
elementos principales. Por su parte, respecto al análisis
mineralógico del producto, la difracción de rayos X reportó
un valor de 99 % de Al metálico.
3.3 Resultados de la definición de las mejores condiciones
del proceso de fusión utilizando sales de cloro y flúor
Se presentan los resultados obtenidos para los procesos de
fusión de acuerdo a la metodología de la sección 2.3.
3.3.1 Resultados de la concentración de las sales dentro de la
carga fundente
En la Figura 4, se muestra los porcentajes de recuperación de
aluminio al variar la composición molar de la carga fundente.
El porcentaje de mayor recuperación reportado fue al utilizar
una carga fundente de composición molar: 60 % de NaCl y
40 % KCl.
100
80
Pérdida de masa (%)
Lixiviación con acetona 98%
Lixiviación con acetato de nbutilo 98%
60
Lixiviación con acetona 50% etanol 50%
Lixiviación con acetato de nbutilo 50% - etanol 50%
40
Lixiviación con acetona 25% etanol 75%
20
Lixiviación con acetato de nbutilo 25% - etanol 75%
0
0
30
60
90
120
150
Tiempo de lixiviación (min)
180
Figura 3. Porcentaje de pérdida de masa de empaques farmacéuticos tipo blister sometidos a procesos de lixiviación con acetona y acetato de n- butilo al 98 %
de pureza y en solución con etanol al 50 % v/v y 25 % v/v.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Porcentaje de Recuperación
(%)
24
Erazo Clara1; de la Torre Ernesto1; Endara Diana1
_______________________________________________________________________________________________________________________________
3.3.3 Influencia de la variación de temperatura
70
60
50
40
30
20
10
0
En la Figura 6, se puede observar que el porcentaje de
recuperación de la fase metálica tiene un comportamiento
creciente hasta llegar aun valor máximo, correspondiente a
750 °C; después de éste, la tendencia se vuelve decreciente.
0
10
20 30 40 50 60 70 80
Composición molar de NaCl (%)
90 100
Figura 4. Porcentaje de recuperación de la fase metálica respecto a la
composición molar de NaCl al realizar procesos de fusión de láminas de
aluminio
3.3.2 Resultados de la definición del porcentaje de carga
fundente
En la Figura 5, se muestra el porcentaje de recuperación de la
fase metálica respecto al porcentaje de carga fundente
utilizada. Se puede observar que el porcentaje de
recuperación de la fase metálica tiene un comportamiento
creciente hasta llegar a un valor máximo, después de éste la
tendencia se revierte y toma un sentido decreciente.
Debido a la alta reactividdad del aluminio con el oxígeno y la
humedad, al realizar el ensayo de fusión en ausencia de sales
fundentes, no se logra tener recuperación de fase metálica. El
porcentaje de recuperación de la fase metálica al trabajar con
100 % de porcentaje de carga fundente se eleva a 55,82 %.
Al realizar la fusión a 650 °C, no se logra tener recuperación
de fase metálica, debido a que las sales no alcanzan el punto
de fusión. El material se oxida en su totalidad por lo cual no
se evidencia fase metálica. El punto de fusión del aluminio es
de 660 °C, por lo cual no se produce el cambio de fase a
dicha temperatura.
Al trabajar a 700 °C, se logra una recuperación de la fase
metálica de 41,93 %. La recuperación aumenta con el
incremento de la temperatura a 750 °C, alcanzando una
recuperación del 64,94 %. Sin embargo, al trabajar a 800 °C
y 850°C, los valores disminuyen a 39,66 % y 35,65 %,
respectivamente. Según Aspin (1995), al trabajar bajo
temperaturas de fusión elevadas se perjudica la recuperación
del aluminio.
Esto sucede debido a que el aluminio fundido al permanecer
a temperaturas elevadas empieza a generar mayores
cantidades de óxidos. Por esta razón, las recuperaciones de
menor valor se tienen al trabajar a temperaturas superiores a
800°C.
3.3.4 Determinación del tiempo de fusión
La disminución en el porcentaje de recuperación de la fase
metálica usando 100 % de carga fundente, respecto a la
obtenida al usar 200 % (64,94 % de recuperación), se debe a
que bajo las primeras condiciones, dentro del crisol, no se
logra cubrir el material metálico en su totalidad, lo cual
favorece procesos de oxidación con el ambiente.
Porcentaje de Recuperación (%)
Al utilizar porcentajes de carga fundente de 300 % y 400 %
el porcentaje de recuperación de la fase metálica decrece a
49,59 % y 45,87 %, respectivamente, debido a que la carga
fundente no alcanza el punto de fusión, por lo cual no logra
formar la capa protectora que evita la formación de óxido.
Como se muestra en la Figura 7, el porcentaje de
recuperación de la fase metálica hasta las 0,75 h de fusión es
igual a 0, las láminas permanecen compactadas como fueron
ingresadas al crisol. Es decir, son procesos ineficientes en los
que no se logra la fusión. A partir de este valor, el
comportamiento es creciente respecto al tiempo hasta las 1,75
h, se observa el aparecimiento de una fase metálica. Además,
las sales fundentes presentan una tonalidad opaca lo cual
refleja que han sido fundidas. A partir de este valor la
tendencia se vuelve constante.
Porcentaje de Recuperación
(%)
70
60
50
40
30
20
10
0
0
100
200
300
400
Porcentaje de carga fundente
Figura 5. Porcentaje de recuperación de la fase metálica respecto al
porcentaje de carga fundente al realizar procesos de fusión de láminas de
aluminio
El porcentaje de carga fundente que reportó mayor
recuperación de aluminio corresponde a 200 % respecto a la
carga sometida a fusión, este valor fue utilizado para los
ensayos posteriores.
70
60
50
40
30
20
10
0
650
700
750
800
850
Temperatura de fusión (°C)
Figura 6. Porcentaje de recuperación de la fase metálica respecto al
porcentaje de carga fundente al realizar procesos de fusión de láminas de
aluminio
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica
_________________________________________________________________________________________________________________________
Como se puede observar el material presenta uniformidad en
la superficie, lo que indica una buena fusión. Las grietas que
se muestran son el resultado del proceso de lijado.
70
Porcentaje de recuperación (%)
25
60
50
En la Figura 9, se muestra la distribución de los elementos
dentro de la superficie analizada. Como se observar, la mayor
cantidad de material corresponde a Al con la presencia de
impurezas de Fe distribuidos de forma uniforme dentro de la
muestra.
40
30
20
10
0
0
0,25
0,5
0,75
1
1,25
1,5
1,75
2
Tiempo de fusión (h)
Figura 7. Porcentaje de recuperación de la fase metálica respecto al tiempo
al realizar procesos de fusión de láminas de aluminio
El tiempo de fusión de láminas de aluminio para lograr la
mayor recuperación es de 1,75 h, correspondiente al 65,01 %.
3.3.5 Resultados de la influencia de la adición de fluoruro de
potasio (KF)
Los porcentajes de recuperación logrados al incorporar a la
carga fundente 5 % y 10 % de KF fueron de 64,25 % y
64,04 %, respectivamente, es decir no se incrementa la
recuperación. Según Totten y MacKenzie, (2003)., la adición
de KF a la carga fundente permite la disminución de la
tensión interfacial provocada entre la mezcla de sales y el
aluminio fundido, y esto conlleva a un recubrimiento del
metal que a su vez permite una mayor recuperación de
aluminio metálico Sin embargo, en los ensayos realizados no
se evidencia ningún cambio, esto puede ser explicado debido
a la diferencia entre los puntos de fusión entre el KF y la
mezcla NaCl – KCl, lo cual provoca la dificultad de formar
una capa de revestimiento que impida la oxidación del
Aluminio
3.3.6 Resultados de la caracterización
mineralógica del aluminio obtenido
química
y
El análisis químico realizado por espectrofotometría de
chispa, muestra que el producto de fusión posee 98,45 % de
Al y 0,76 % de Fe como elementos principales.
En la Figura 8, se muestra una fotografía del producto
metálico obtenido a 355 aumentos en el microscopio
electrónico de barrido (MEB), mediante el uso del software
VEGA-TESCAN, con microanalizador de rayos X
BRUKER.
Figura 9. Imagen reportada por microscopía electrónica al realizar análisis
semicuantitativo de una muestra de aluminio fundido (355x)
4. CONCLUSIONES
Los empaques farmacéuticos poseen valores promedio de
humedad de 5,13 %, material volatil 75,89 % (correpondiente
a PVC), cenizas 17,95 % (correspondiene a aluminio) y
carbón fijo 6,16 %. La lámina de metalica está constitutida
por 98,65 % de Al y 1,15 % de Fe. Presentan una densidad
real de 1,42 g/cm3 y una densidad aparente de 0,07 g/cm3, por
lo que una pequeña cantidad ocupa un gran volumen.
El proceso de separación de la capa metálica de la polimérica
requiere lixiviar los empaques farmacéuticos utilizando como
solvente del PVC acetato de n- butilo al 98 % durante 150
min. Bajo dichas condiciones se tiene una pérdida de masa
del empaque blister del 80,18 %; por tanto, el restante
19,82 % no lixiviado, corresponde a la fase metálica.
El proceso de lixiviación utilizando como solvente acetona
presenta una pérdida de masa del empaque del 80,41 %; es
decir, el 19,59 % restante correspondiente al material
metálico.
Al utilizar solventes diluidos en la lixiviación de PVC, los
procesos de separación de la capa metálica de la polimérica
se vuelven ineficientes, con recuperaciones máximas del
40 %, debido a la diferencia en los puntos de ebullición de los
componentes.
El acetato de n- butilo recuperado por destilación puede ser
recirculado al proceso de lixiviación. La eficiencia de
separación no se ve alterada.
Las condiciones de fusión planteadas para una recuperación
del 65 % del aluminio metálico, establecen una composición
molar de sales de 60 % NaCl y 40 % KCl, 200 % de carga
fundente a 750 °C durante 1,75 h.
Figura 8. Imagen reportada por microscopía electrónica a 355 aumentos de
una muestra de aluminio fundido
La adición de fluoruro de potasio (KF) a la carga fundente no
incrementa el porcentaje de recuperación de la fase metálica
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
26
Erazo Clara1; de la Torre Ernesto1; Endara Diana1
_______________________________________________________________________________________________________________________________
durante los procesos de fusión. Esto se debe a la diferencia a
la diferencia entre los puntos de fusión del KF y la mezcla
NaCl – KCl.
El producto metálico de fusión esta compuesto por 98,45 %
de Al y 0,76 % de Fe como elementos principales.
Schlesinger, M. (2013). Aluminum Recycling (2da. ed.). New York, Estados
Unidos: Taylor & Francis Group.
Totten G. y MacKenzie D. (2003). “Handbook of Aluminum”, Editorial
Marcel Dekker, Inc., Nueva York, Estados Unidos, Volumen 1, pp.36-37,
Volumen 2, pp.116-165.
VinyLoop. (2013).
The
VinyLoop
http://www.vinyloop.com, (octubre, 2014).
La propuesta planteada además de ser una alternativa técnica
de recuperación de materiales de interés, representa una
posible solución al problema medio ambiental de disposición
de este tipo de residuos.
RECONOCIMIENTO
Al Departamento de Metalurgia Extractiva (DEMEX) de la
Facultad de Ingeniería Química y Agroindustria de la Escuela
Politécnica Nacional del Ecuador.
REFERENCIAS
Aspin, T. (1995). Principios de fundición. México: Gustavo Gili, 1995, p. 80
ASTM D3173-87. (1996). Standard Test Method for Moisture in the
Analysis Sample of Coal and Coke. Estados Unidos.
ASTM D3174-12. (2012). Standard Test Method for Ash in the Analysis
Sample of Coal and Coke from Coal. Estados Unidos.
ASTM D3175-02. (2002). Standard Test Method for Volatile Matter in the
Analysis Sample of Coal and Coke. Estados Unidos.
Belliveau, M. (2003). Dioxin pollution prevention and pvc plastic in
municipal solid waste: Precautionary state policy. Recuperado de
http://www.chej.org/ppc/docs/pvc_polyvinyl_chloride_or_vinyl/PVC_MBB
EH.pdf (octubre, 2014)
Endara, D. (2008). Recuperación de Aluminio de los envases y empaques
usados por la Industria de Alimentos y Farmacéutica. (Tesis previa a la
obtención de grado de Master en Metalurgia Extractiva y Medio Ambiente).
Escuela Politécnica Nacional, Quito, Ecuador.
Estrella, F. (2013). Diseño de una planta para la recuperación de Aluminio
de envases multicapa mediante lixiviación con solventes orgánicos y
fundición. . (Proyecto previo a la obtención de título de Ingeniero Químico).
Escuela Politécnica Nacional, Quito, Ecuador.
González, M. (1997). Propiedades químicas y propiedades físicas de los
polímeros. Universidad Politécnica de Madrid. Recuperado de:
http://ruc.udc.es/bitstream/2183/9641/1/CC_32_art_3.pdf, (octubre, 2014)
Nutsch, W. (2000). Tecnología de la Madera y el Mueble. (1era. ed.).
España: Reverté.
Pilchik, R. (2000a). Pharmaceutical Blister Packaging, Part I: Rationale and
Materials.
Pharmaceutical Technology, 68-77. Recuperado de
http://www.pharmanet.com.br/pdf/blister.pdf (septiembre, 2014)
Román, F. (1992). Introducción a la recuperación y reciclado de los metales
no férreo. Instituto Tecnológico Geominero de España. (1era. ed.) Madrid,
España.
Rubinos, D. (2007). Utilización de lodos rojos de bauxita en la contención e
inactivación de residuos tóxicos y peligrosos. (Tesis Doctoral –
Departamento de Edafoloxía y Química Agrícola). Universidad de Santiago
de Compostela, Santiago de Compostela, España.
Saeed, L. (2004). Experimental assessment of two-stagecombustion of high
pvc solid waste with HCl recovery, Helsinki University of Technology,
Department of Mechanical Engineering, Finlandia. Recuperado de
https://aaltodoc.aalto.fi/bitstream/handle/123456789/2427/isbn9512271516.p
df?sequence=1, (octubre, 2014)
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Process.
Recuperado
de
Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada
_________________________________________________________________________________________________________________________
27
Diseño de una Planta Piloto para la Obtención de Aluminato de
Sodio Mediante el Método de Precipitación Controlada
Vallejo Fidel1; Mera Luis2; Lascano Luis3
2
1
Escuela Politécnica Nacional, Carrera de Ingeniería Química, Quito, Ecuador
Escuela Politécnica Nacional, Departamento de Ingeniería Química, Quito, Ecuador.
3
Escuela Politécnica Nacional, Departamento de Física, Quito, Ecuador.
Resumen: En este trabajo se ha sintetizado aluminato de sodio por el método de Precipitación Controlada (MPC).
Se determinó que un precursor adecuado para obtener aluminato de sodio es el nitrato de aluminio 2,0 M, que fue
llevado a un pH de 11,25 mediante la adición como agente precipitante de hidróxido de sodio 2,0 M a 10 mL/min.
El polvo precipitado fue sometido a un tratamiento térmico a 900 °C por una hora. El polvo obtenido fue
caracterizado por DRX y MEB, los resultados indican que se obtuvo un tamaño promedio de partícula de 9 micras.
Además, se realizó el diseño y el análisis económico preliminar de una planta piloto para la producción de 100
kg/semana de aluminato de sodio. El proceso en planta consta de la reacción del nitrato de aluminio 2,0 M con el
hidróxido de sodio 2,0 M, la sedimentación del precipitado, el secado en bandejas horizontales por convección y la
calcinación en un horno programable. Se realizaron los diagramas de bloque y de flujo del proceso, y la distribución
en planta de los equipos y de las áreas de almacenamiento previstas. Finalmente se estimó la tasa interna de retorno
(TIR) en dos casos extremos.
Palabras claves: Aluminato de sodio; diseño de plantas químicas; nitrato de aluminio; curva potenciométrica
Plant design for Sodium Aluminate Production by Controlled
Precipitation Method
Abstract: In this work, sodium aluminate was obtained by Controlled Precipitation Method. The optimum
precursor was aluminum nitrate 2,0 M, that reaches a pH of 11,25 by the addition of sodium hydroxide 2,0 M which
rate is 10 mL/min. After this the dry powder was subjected to a heat treatment at 900 ºC for 1 hour. The resulting
powder was characterized by XDR and SEM, the results indicate that sodium aluminate had an average particle size
of 9 microns.
The second part includes the design and preliminary economic analysis of a pilot plant for the production of
100 kg/week of sodium aluminate. The global process involves the reaction of aluminum nitrate with sodium
hydroxide, sedimentation of the precipitate solids, the drying in horizontal trays and calcination in a convective
oven. In this section, the flow diagram, the block diagram and the layout were made. Finally, IRR was calculated
considering two extreme cases.
Keywords: Sodium aluminate; chemical plant design; aluminum nitrate; potentiometric curve
1
1. INTRODUCCIÓN
El aluminato de sodio ha sido obtenido mediante procesos
tradicionales tales como síntesis hidrotérmica, reacción en
estado sólido y descomposición térmica. Cao, Y. Zhang y Y.
Zhang (2009), presentaron un estudio sobre la preparación de
aluminato de sodio a partir de la lixiviación de bauxita en
soluciones concentradas de NaOH, en el cual el producto
final es un aluminato de sodio hidratado. En dicho estudio se
explica el método de reacción en estado sólido para producir
aluminato de sodio anhidro, mediante el cual una mezcla de
carbonato de sodio y bauxita o hidróxido de aluminio se
calcina en hornos rotatorios a 1000 °C. Otra posibilidad,
según esta misma fuente, consiste en secar una solución
acuosa de aluminato de sodio proveniente del proceso Bayer,
en lechos fluidizados (Rai et al., 2012)
Contreras, Sugita y Ramos (2006) reportan la posibilidad de
sintetizar aluminato de sodio a partir de sulfato de sodio
básico tratado con carbonato de sodio, que permite la
formación de dawsonita de sodio que, a su vez, se somete a
diferentes temperaturas entre los 600 y 1100 °C durante 30
minutos.
[email protected]
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
28
Vallejo Fidel1; Mera Luis2; Lascano Luis3
______________________________________________________________________________________________________________________________
López et al. (2011) señalan que, para la obtención de las
zeolitas sintéticas se parte de una solución precursora de
aluminato de sodio en una solución de hidróxido de sodio, la
cual se añade de manera lenta a una solución de sílice.
Posteriormente, se calienta a 190 °C durante 24 h, se procede
a un filtrado y a un tratamiento térmico final para darle su
estructura definitiva a la zeolita.
El método de precipitación controlada para sintetizar polvo
cerámico permite un buen control de las características del
polvo final obtenido y una buena reproducibilidad del
proceso experimental, pues las variables de control son de
una índole más simple que en los otros métodos de síntesis,
ya que no involucra una excesiva preparación de las muestras
ni condiciones extremas de operación, como altas presiones
(Rodríguez, 2001; Segal, 1997).
En el Ecuador, la Escuela Politécnica Nacional a través del
Departamento de Física ha empleado el método de
precipitación controlada para la obtención de óxidos simples
de compuestos metálicos (Berrones y Lascano, 2012;
Herrera, Cadena y Lascano, 2012).
2.2.2. Preparación de soluciones a partir de dos precursores
Precursor nitrato de aluminio
La solución 0,1 M de nitrato de aluminio se preparó pesando
1,875 g que se aforaron con agua destilada en un matraz de
50 mL . A esta solución se adicionó sosa cáustica 2,0 M
(preparada con 80 g en un recipiente de 2000 mL), a una tasa
de 0,5 mL/min con un dosificador Metrohm. La curva
potenciométrica del sistema se obtuvo mediante el registro
del cambio de pH en función del volumen añadido de la base.
Precursor isopropóxido de aluminio
Una cantidad de 20,4 g de isopropóxido de aluminio se
pesaron para obtener una solución 0,1 M al aforar en un
matraz de 250 mL . La adición de sosa cáustica y la
obtención de la curva potenciométrica se realizaron de la
misma manera que en el caso anterior. El pH óptimo para la
finalización de la reacción se determinó mediante el análisis
de la curva potenciométrica.
2.3 Caracterización del polvo sintetizado
En este trabajo se ha sintetizado el óxido doble de aluminato
de sodio por el método antes mencionado. Si bien Ruiz y
Rodríguez (2010) han realizado un trabajo similar de síntesis
de aluminato de sodio por el MPC, el presente trabajo aborda
dos aspectos: la comparación de la síntesis de dicho
compuesto con dos tipos de precursores a nivel de laboratorio
y, previo escalamiento, el diseño de una planta piloto para la
producción de aluminato de sodio. La producción local de
materiales sintéticos de alta pureza es un reto para el
Ecuador, de ahí la importancia de hacer diseños de plantas
industriales que utilicen procesos validados en el laboratorio.
2. MATERIALES Y MÉTODOS
2.1 Materiales
2.4 Diagramas de bloque, de flujo y layout del proceso
Todos los reactivos químicos empleados fueron de calidad
analítica. El agua fue destilada antes de su utilización. Como
precursores se utilizaron nitrato de aluminio nonahidratado e
isopropóxido de aluminio de Aldrich Chemistry, e hidróxido
de sodio de Riedel-de-Haên como agente precipitante.
2.2 Síntesis de aluminato de sodio por el método de
precipitación controlada
2.2.1.
Se obtuvieron difractogramas de rayos X de todas las
muestras calcinadas con un equipo Norelco Philips, con el fin
de identificar las fases presentes. Se buscó determinar si el
aluminato de sodio es fase mayoritaria en el polvo cerámico
mediante la comparación de los picos del difractograma con
la base bibliográfica PDF2 del Centro Internacional de
Cristalografía. Para ello, las muestras se almacenaron en
envases herméticos debido al carácter higroscópico que se
observó en ellas. A la muestra con mayor fase de aluminato
de sodio se la caracterizó mediante microscopía electrónica
de barrido (equipo Tescan Vega II LMU) con el fin de
conocer el tamaño y la morfología de las partículas.
Diseño de los experimentos
Se eligieron como variables de análisis el precursor: nitrato
de aluminio e isopropóxido de aluminio; la temperatura final
de calcinación: 600, 900 y 1200 ºC, y la duración de la
meseta en el tratamiento térmico: 1 y 1,5 horas. Una vez
determinados el precursor y el tratamiento térmico óptimos,
se procedió a aumentar la concentración del mejor precursor
a 1,0 M y 2,0 M. Además, se aumentó la tasa de adición del
hidróxido de sodio 2,0 M desde 5 mL/min hasta 10 mL/min.
2.4.1. Diagrama de bloque
Para la síntesis de aluminato de sodio, la solución precursora
y el agente precipitante se añaden a un reactor con agitación
electromecánica. Una vez que el sistema ha alcanzado el pH
adecuado según el análisis de la curva potenciométrica, la
solución se transporta a la siguiente etapa que consiste en la
separación sólido - líquido. Luego, el polvo seco se calcina
en un horno en las condiciones óptimas ya determinadas para
obtener aluminato de sodio. El diagrama se muestra en la
Figura 1.
2.4.2. Diagrama de flujo
La forma de operación de la planta sería en la modalidad por
lotes, y el dimensionamiento de los equipos se realizó para
que se produzcan 100 kg por semana de aluminato de sodio
en una sola carga.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada
_________________________________________________________________________________________________________________________
29
el nivel de confianza del análisis económico es de alrededor
del 30 % del costo total determinado.
3. RESULTADOS Y DISCUSIÓN
3.1. Síntesis y caracterización del aluminato de sodio
3.1.1. Análisis de las curvas potenciométricas
Figura 1. Diagrama de bloque: Proceso de obtención del aluminato de sodio
Reacción del precursor con el agente precipitante
En la primera parte del diagrama de flujo, que corresponde a
la reacción, se determinaron los volúmenes necesarios de la
solución precursora y del agente precipitante que deben
ingresar al reactor.
Separación sólido-líquido
Se debe separar el solvente residual, porque el producto de la
reacción de precipitación debe estar seco antes de ingresar a
la última etapa del proceso, que es la calcinación (Nonhebel y
Moss, 2002).
Calcinación
En las Figuras 2 y 3 se presentan las curvas potenciométricas
obtenidas con los precursores nitrato de aluminio e
isopropóxido de aluminio, respectivamente. La importancia
del control del pH radica en que, si es muy bajo, puede
producirse una precipitación incompleta porque el sistema se
queda en la etapa de formación y crecimiento de los
complejos y, en caso contrario, si es muy alto se pueden redisolver las especies presentes (Ruiz y Rodríguez, 2010). En
la curva potenciométrica de la Figura 2 se identifican cuatro
zonas definidas por el cambio de pendiente. En la primera
zona la sosa cáustica se neutraliza con los iones nitrato
presentes en solución, la segunda zona representa el inicio de
la nucleación, alcanzando su desarrollo final en la tercera
zona y la saturación del sistema en la cuarta, a un pH de
11,25. En la curva potenciométrica de la Figura 3 se
diferencian 3 zonas, las mismas que presentan un aumento
leve de pH con gran consumo de agente precipitante. La zona
de estabilización del pH que indica la saturación del sistema
corresponde a valores de pH mayores que 12.4 unidades.
Se determinó el rendimiento en la calcinación a partir de los
datos de masa inicial que entra al horno y masa final que
corresponde al aluminato de sodio. Con el valor de los
sólidos totales y este rendimiento, se determinaron los
valores de los volúmenes de solución iniciales que deben
ingresar al reactor, dato que permitió la selección de las
bombas necesarias para transportar el fluido desde los
tanques de pre-mezcla.
2.4.3. Distribución de los equipos en planta
Se procedió a dimensionar los equipos necesarios para el
proceso con los valores de las corrientes obtenidos mediante
un balance de masa y energía, y se realizó la distribución de
los mismos en la planta piloto (Foust et al., 2000). Se
consideraron espacios para las bodegas de almacenaje de
producto terminado y de materia prima, así como espacios
para reuniones y oficinas, alcanzado un área total de 100 m2,
aproximadamente.
Figura 2. Curva potenciométrica del sistema Al(NO3)3.9H2O 0,1 M –
NaOH 2,0 M
2.5 Estudio económico preliminar del costo del aluminato de
sodio
Una vez determinados los costos de los equipos necesarios
para el procesamiento mediante cotización directa con
proveedores, se procedió a calcular los valores de la inversión
en instalaciones auxiliares y construcciones mediante el uso
de porcentajes típicos en la industria química (Peters,
Timmerhaus y West, 2003; Towler y Sinnot, 2008). Los
costos de materia prima y de venta del producto terminado se
obtienen de casas comerciales. Debido a que el objetivo del
trabajo fue realizar un análisis preliminar de la planta piloto,
Figura 3. Curva potenciométrica del sistema C9H21AlO3 0,1 M–NaOH 2,0M
Si se comparan las curvas potenciométricas de las soluciones
de nitrato de aluminio y de isopropóxido de aluminio se
distinguen las siguientes diferencias:
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
30
Vallejo Fidel1; Mera Luis2; Lascano Luis3
______________________________________________________________________________________________________________________________

El pH de la solución de nitrato de aluminio debe ser
llevado desde 3,1 hasta 11,25, mientras que el pH
del isopropóxido de aluminio debe alcanzar mínimo
12,4, partiendo de 8,4; por lo que la cantidad de
NaOH necesario en el último caso es menor para un
volumen de solución precursora inicial equivalente.

Mientras la zona de formación y crecimiento de los
núcleos en el caso del nitrato de aluminio abarca el
rango de pH comprendido entre 3,8 y 10,2 unidades,
cuando se utiliza isopropóxido de aluminio dicha
región se encuentra entre el 9,5 y el 12. Esto
explicaría la diferencia entre los resultados
obtenidos en ambos casos, ya que se requiere que el
sodio forme parte de la estructura final del
compuesto precipitado, y en el caso del
isopropóxido la cantidad de sodio que presenta el
sistema antes de la calcinación es baja.
3.1.2 Determinación de las fases cristalinas presentes
En las Figuras 4 y 5 se presentan los difractogramas de los
polvos cerámicos obtenidos con cada precursor y tratados a
900 °C durante 1 hora. Se observa que con el precursor
nitrato de aluminio (Figura 4) se obtiene aluminato de sodio
como fase mayoritaria, lo que no ocurre al utilizar el
isopropóxido de aluminio como precursor (Figura 5), donde
además la cristalización es baja.
Analizando con mayor profundidad el hecho precedente, y
según lo señalado en el numeral anterior, si se comparan las
cantidades de solución de hidróxido de sodio necesarias para
estabilizar el sistema en cada caso se tiene que para el nitrato
de sodio se necesitaron 9,5 mL para 50 mL de solución
precursora, y en el caso del isopropóxido de aluminio se
requirieron 5 mL en 250 mL de solución inicial. Esto
significa el 19 % para el primer caso y el 2 % para el
segundo. Este hecho ratifica que una de las probables razones
que explicaría el no haber obtenido aluminato de sodio como
fase mayoritaria en el polvo cerámico procesado a partir de
isopropóxido de aluminio, fue la cantidad insuficiente de
sodio en el polvo precipitado final.
3.1.3 Estudio de la concentración inicial del precursor
nitrato de aluminio
Se procedió a variar la concentración del nitrato de aluminio
en la solución inicial hasta valores de 1 M y 2 M,
manteniendo el tratamiento térmico óptimo previamente
determinado. Se espera que la cristalización del compuesto
sea similar a la obtenida con la concentración inicial de 0,1 M
pues el proceso de calcinación involucra, en forma general, la
salida del agua y la formación del nuevo compuesto; ambos
factores no dependen de la masa tratada sino del sistema
total.
Experimento PTC1
Para preparar 50 mL de solución 1,0 M de nitrato de aluminio
se pesaron 18,75 g. Las condiciones del experimento se
mantuvieron iguales a las de los anteriores experimentos,
excepto la velocidad de adición que se aumentó a 10 mL/min
para aumentar la productividad por lotes y disminuir la
cantidad de solvente a separar del polvo precipitado.
Figura 4. Difractograma del polvo cerámico sintetizado a partir de nitrato de aluminio
Figura 5. Difractograma del polvo cerámico sintetizado a partir de isopropóxido de aluminio
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada
_________________________________________________________________________________________________________________________
31
Experimento PTC2
Para preparar 50 mL de solución 2,0 M de nitrato de aluminio
se pesaron 37,50 g. La curva potenciométrica se muestra en
la Figura 6. El pH inicial en este caso fue de 2,3, y la región
de estabilización y sobresaturación se alcanzó a un pH de
11,26.
Figura 6. Curva potenciométrica del sistema Al(NO3)3.9H2O 2 M– NaOH
2,0 M
3.1.4 Caracterización de las fases presentes
En la Figura 7 se presenta el difractograma de rayos X
correspondiente a la muestra PTC2. La coincidencia de picos
con los de aluminato de sodio en las muestras con una
concentración inicial de 1,0 M y 2,0 M es similar a la
encontrada con una concentración inicial 0,1 M de precursor.
En este caso, la condición experimental óptima es a partir de
nitrato de aluminio con una concentración inicial de 2,0 M,
que se somete a un tratamiento térmico que está conformado
de una rampa de 10 °C/min, hasta los 900 °C y una meseta de
una hora.
3.2. Microestructura del material sintetizado
Para determinar el tamaño promedio de partícula se midió el
diámetro de 20 partículas en cuatro micrografías obtenidas
por MEB, una de ellas se muestra en la Figura 8. Los
resultados proporcionan un tamaño de partícula promedio de
9 µm, con una desviación estándar de 2 µm, es decir, existe
una dispersión significativa que expresa la heterogeneidad
del tamaño de partícula.
Figura 8. Micrografìa de polvo de aluminato de sodio sintetizado a partir de
nitrato de aluminio a 900 °C y 1 h
3.3. Diagrama de flujo y distribución de equipos en planta
piloto para la obtención de aluminato de sodio
La Tabla 1 presenta los valores de las corrientes para cada
lote del proceso de obtención de 100 kg/semana de aluminato
de sodio en la planta piloto. Para el desarrollo del trabajo se
consideró la presión atmosférica de Quito igual a 0,72 atm. El
diagrama de flujo que se muestra en la Figura A1 del
Apéndice presenta el código, el nombre y la descripción de
los equipos necesarios para el proceso.
3.4. Análisis económico preliminar
Los valores de los equipos necesarios han sido obtenidos en
su totalidad de proveedores. En la Tabla A2 del Apéndice se
presentan los equipos principales a instalar con sus
características, la función que cumplen en el proceso y el
costo en el año 2015. El valor total es parte del capital fijo a
invertir, lo cual permite calcular el costo total mediante el
método de los porcentajes estimados, como se indica en la
Tabla A3 del Apéndice.
Figura 7. Difractograma de la muestra obtenida en el experimento PTC2
Se analizan dos escenarios económicos. En el primero, el
objetivo es encontrar un valor del producto terminado que
genere una rentabilidad en la empresa, si los costos de la
materia prima son los que se indican en la Tabla 2. En el
segundo análisis se trata de encontrar el valor unitario del
precursor que genere un rendimiento sobre la inversión
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
32
Vallejo Fidel1; Mera Luis2; Lascano Luis3
______________________________________________________________________________________________________________________________
inicial, si el precio de venta del aluminato de sodio y de las
otras materias primas son los indicados en la Tabla 2.
Tabla 1. Propiedades de las corrientes del proceso
#
Descripción
1
Nitrato de
aluminio
Agua destilada
Sosa cáustica
Agua destilada
Solución 2,0 M
Nitrato de
aluminio
Solución 2,0 M
Hidróxido de
sodio
Producto
reactor
Líquido claro
Concentrados
2
3
4
5
6
7
8
9
10
11
12
13
Polvo seco
Solvente
residual
Gases de
calcinación
Aluminato de
sodio
Estado de
agregación
Valor de la
corriente
(kg/semana)
T
(°C)
Sólido
1 450,95
20
Líquido
Sólido
Líquido
Líquido
909,22
33,80
420,00
2 360,17
20
20
20
20
Líquido
453,80
20
Líquido
2 813,97
20
Líquido
Líquido +
Sólido
Sólido
Vapor
2 308,19
505,78
20
20
350,00
155,78
90
91
Gas
250,00
900
Sólido
100,00
20
Tabla 2. Costos de compra y venta de materia prima y producto final
Materia prima Nitrato
de USD 88,27/kg
aluminio
Hidróxido
de USD 1,06/kg
sodio
Agua destilada
USD 0,80/kg
Aluminato
de USD 61,1/kg
Producto
sodio
terminado
En la Figura 9 se muestra la variación de la tasa interna de
retorno (TIR) con respecto al precio de venta del aluminato
de sodio manteniendo constante el precio de compra del
precursor. Si se quiere que la TIR sea del 25 % se requiere un
precio de venta del producto de USD 255,0/kg. En la Figura
10 se puede observar la variación de la TIR con la variación
del costo del precursor si el valor de venta del aluminato de
sodio es fijo. Para obtener una TIR del 25 % se requiere un
costo de USD 27,4 por kilogramo de precursor. De esta
figura se puede concluir también que para que exista un
margen de ganancia, el valor del kg de material precursor
debe encontrarse por debajo de los USD 34,3.
Figura 9.Variación de la TIR con respecto al precio de venta del aluminato
de sodio con el precio del precursor constante
Figura 10.Variación de la TIR con respecto al costo del precursor con el
precio de venta del aluminato de sodio constante
4. CONCLUSIONES
Se obtuvo una fase mayoritaria de aluminato de sodio de
estructura ortorrómbica mediante el método de precipitación
controlada, a partir de una solución de nitrato de aluminio
2,0 M como precursor e hidróxido de sodio 2,0 M como
agente precipitante. El tratamiento térmico óptimo
determinado en este trabajo consta de una rampa de
calentamiento de 10 °C/min, con una temperatura máxima
de 900 °C por una hora.
El tamaño de partícula promedio obtenido es de 9 micras
según la caracterización por microscopía electrónica de
barrido, aceptable en el mercado por comparación con el
tamaño de partícula de otros coagulantes, como el sulfato de
aluminio, que es de 150 micras.
La variación de concentración inicial de la solución de nitrato
de aluminio en el rango estudiado en el presente trabajo, de
0,1 a 2,0 M, no influyó en las fases presentes en el polvo
final. Al parecer, esto se debe a que el proceso de obtención
del aluminato de sodio depende en mayor medida del
tratamiento térmico.
Se ha realizado un diseño preliminar de una planta
productora de aluminato de sodio, que trabaje con el método
de síntesis de Precipitación Controlada. El costo total de los
equipos necesarios para la producción de 100 kg/semana de
aluminato de sodio, y que se cotizaron directamente con
proveedores nacionales e internacionales, es de USD 28
504,70, y el costo total estimado de forma preliminar de la
planta piloto es de USD 95 015,67, al año 2015.
El proyecto no es rentable económicamente con los precios
de las materias primas y producto terminado actuales, pues el
precio de venta del aluminato de sodio no es mayor que el
costo de compra de la materia prima necesaria. Por esta
razón, si se mantiene constante el precio del precursor en
USD 88,27/kg, el precio de venta necesario para que exista
utilidad sería de USD 199,1/kg, y para que exista una TIR del
25 % debería ser de USD 255. Por otra parte, si el precio de
venta se considera invariable en USD 61,1/kg el costo del
precursor por kilogramo debe costar a lo máximo USD 34,3 y
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada
_________________________________________________________________________________________________________________________
para una TIR igual o mayor que el 25 % el costo debe ser
menor que USD 27,4/kg.
REFERENCIAS
Berrones, M. & Lascano, L. (2012). Síntesis de nanopartículas de hematita
por el método de precipitación controlada. Revista Politécnica, 30(1), 91-99.
Cao, S., Zhang, Y. & Zhang, Y. (2009). Preparation of sodium aluminate
from the leach liquor of diasporic bauxite in concentrated NaOH solution.
Hydrometallurgy, 98, 298-303
Campo, D., & Rodríguez, J. (2011). ZrO2 tetragonal obtenido por el método
de precipitación controlada. Dyna, 78(165), 224-233.
Contreras, C., Sugita, S., & Ramos, E. (2006). Preparation of Sodium
Aluminate from Basic Aluminium Sulfate. Advances in Technology of
Materials and Materials Processing Journal, 8(2), 122-129.
Foust, A., Wenzel, L., Clump, C., Maus, L., & Andersen, L. (2000).
Principios de Operaciones Unitarias. (2da.ed.), (F. Torres, Trad.) México D.
F., México: Grupo Patria Cultural S. A.
Herrera, E., Cadena, F. & Lascano, L. (2012). Estudio de la influencia del
número de lavados y del tiempo de envejecimiento en la síntesis de
nanopartículas de óxido de cinc por el método de Pecipitación Controlada.
Revista Politécnica, 31(2), 41-50.
López, C., Sazo, V., Pérez, P., Buhman, S., Urbina, C., & García, A. (2011).
Generación de mesoporosidad en zeolitas ZSM-5 sintetizadas en medio
orgánico. Avances en Química, 6(2), 29-37.
Nonhebel, G., & Moss, A. (2002). El secado de los sólidos en la indutria
química. (M. Terrizzano, Trad.) Barcelona, España: Reverté.
Peters, M., Timmerhaus, K., & West, R. (2003). Plant Design and
Economics (Quinta ed.). New York, USA: McGraw-Hill.
Rai, S., Wasewar, K. L., Mukhopadhyay, J., Kyoo, C., & Uslu, H. (2012).
Neutralization and utilization of red mud for its better waste management.
Archives of Enviromental Science, 6, 13-33.
Rodríguez, J. (2001). Síntesis de polvos cerámicos por el método de
precipitación. Bol.Soc.Esp.Cerám.Vidrio 40 (3), 173-184.
Ruiz, C., & Rodríguez, J. (2010). Aluminatos de sodio obtenidos del sistema
Al(NO3)3 • 9H2O — NaOH a través del método de precipitación controlada.
Ingeniería e Investigación 30(2), 16-24.
Segal, D. (1997). Chemical synthesis of ceramic materials. Journal of
Materials Chemistry, 7(8), 1297-1305.
Towler, G., & Sinnott, R. (2008). Principles, practice and economics of plant
and process design (Primera ed.). San Diego, California, Estados Unidos de
Norteamérica: Butterworth-Heineman.
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
33
34
Vallejo Fidel1; Mera Luis2; Lascano Luis3
______________________________________________________________________________________________________________________________
Apéndice A.
DIAGRAMA DE FLUJO DE LA PLANTA PILOTO DE ALUMINATO DE SODIO
Lista de corrientes del proceso
Número de
corriente
1
1
2
3
4
5
2
P-001
TK-001
Descripción
Nitrato de aluminio
Agua destilada
Sosa cáustica
Agua destilada
Solución 2,0 M
Nitrato de aluminio
Solución 2,0 M
Hidróxido de sodio
Producto reactor
Líquido claro
Concentrados
Polvo seco
Agua evaporada
Gases de calcinación
Aluminato de sodio
5
6
6
3
4
7
8
9
10
11
12
13
P-002
TK-002
Estado de
agregación
Flujo másico
(kg/batch)
Temperatura
(°C)
Sólido
Líquido
Sólido
Líquido
1450,95
909,22
33,80
420,00
20
20
20
20
Líquido
2360,17
20
Líquido
453,80
20
Líquido
Líquido
Líquido + Sólido
Sólido
Vapor
Gas
Sólido
2813,97
2308,19
505,78
350,00
155,78
250,00
100,00
20
20
20
90
90
900
20
Equipos
Nombre del
equipo
B-301
H-201
P-001
P-002
P-101
Q-302
R-101
R-101
7
P-101
8
TK-001
TK-002
H-201
Descripción
Secador de bandejas
Sedimentador de base cónica
Bomba centrífuga 1 HP
Bomba dosificadora
Bomba centrífuga 1 HP
Horno programable, 1300 °C
Tanque reactor
Tanque de mezclado
nitrato de aluminio
Tanque de mezclado
hidróxido de sodio
9
11
12
ESCUELA POLITÉCNICA NACIONAL
Realizado por:
Fidel Vallejo Gallardo
INGENIERÍA QUÍMICA
B-301
PFD
PROCESO DE OBTENCION DE ALUMINATO DE SODIO POR
MÉTODO DE PRECIPITACIÓN CONTROLADA
AÑO
2013
ESCALA
MES
MARZO
N/A
Nº DIBUJO
01
HOJA
10
REV.
01
1 1
Figura A1. Diagrama de flujo de la planta piloto de producción de aluminato de sodio
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
13
Q-302
Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada
_________________________________________________________________________________________________________________________
Equipo
Tanques de
almacenamiento y
premezcla
Agitador para
tanques de
almacenamiento y
premezcla
Bomba de transporte
de fluidos
Bomba dosificadora
Tanque reactor
Bomba
Agitador para tanque
reactor
Tanque sedimentador
Secador de bandejas
Horno programable
(incluye dos bandejas
de cerámica
esmaltada)
Tabla A1. Costos de equipos de la planta piloto, año 2013
Descripción
Capacidad
Uso en planta
Preparación y
almacenamiento de
solución de nitrato de
Tanques tipos botella
2500 L
aluminio
de PE con tapa con
500 L
Preparación y
seguro giratorio
almacenamiento de
solución de hidróxido
de sodio
Mezcla y
1 HP
homogenización de
Motor con bridas
3320 RPM
soluciones en tanques
de almacenamiento
Transporte de la
Alta resistencia
solución de nitrato de
1,5 HP
química recubierta de
aluminio desde el
20 GPM
teflón
tanque premezclador al
reactor
Alimentación de
Bomba apta para el
soluciones desde
bombeo de químicos
8 GPH
tanque de
con control
50 PSI
almacenamiento hasta
automático de flujo
tanque reactor
Tanque tipo botella de
PE con tapa con
1100 L
Reactor
seguro giratorio
Bomba para el
Transporte del
1 HP
transporte de líquidos
producto del reactor al
3500 RPM
con sólidos
sedimentador
Mezcla y
1 HP
Motor con bridas
homogenización en
3320 RPM
tanque reactor
Tanque tipo botella de
Coagulación,
PE con tapa con
2500 L
floculación y
seguro giratorio
sedimentación
Secador por
convección de bandas
Secado final del
Potencia 8 kW
horizontal continuo
precitado
Modelo TM/TL-125
Control de
temperatura digital
127 L
Tmáx: 1300 ºC
Costo (USD)
203,98
68,79
551,60
777,03
1871,30
116,87
3372,99
551,60
203,98
10 025,00
Calcinación del
precipitado
9 077,00
TOTAL
28 504,70
Tabla A2. Capital a invertir estimado a partir del costo de los equipos adquiridos, año 2013
COSTO
Detalle
Porcentaje
Porcentaje
Capital
típico (%)
estimado
Equipos adquiridos
15-40
30 %
USD 28 504,70
DIRECTOS
Instalación de equipos
6-14
10 %
USD 9 501,57
adquiridos
Instrumentación y control
2-8
5%
USD 4 750,78
instalados
Tuberías instaladas
3-20
4%
USD 3 800,63
Conexiones eléctricas
2-10
3%
USD 2 850,47
Trabajos civiles
3-18
6%
USD 5 700,94
incluyendo servicios
Mejoras de terreno
2-5
2%
USD 1 900,31
Instalación de servicios
8-20
7%
USD 6 651,10
auxiliares
Terreno
1-2
2%
USD 1 900,31
Ingeniería y supervisión
4-21
12 %
USD 11 401,88
INDIRECTOS
Supervisión y
4-16
5%
USD 4 750,78
mantenimiento de la
construcción
Gastos contratista
2-6
5%
USD 4 750,78
Contingencias
5-15
9%
USD 8 551,41
TOTAL
100 %
USD 95 015,67
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
35
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
36
Diseño de una Planta de Producción de Cemento Solvente de PVC a
partir de Tarjetas Plásticas de Identificación Recicladas a Escala
Piloto
Inca Fernando1; Salguero Yadira1; Aldás Miguel1

1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y
Agroindustria, Quito, Ecuador
Resumen: En este trabajo se presenta el diseño de una planta de producción de cemento solvente de PVC, a partir
del reciclaje de tarjetas plásticas de identificación, a escala piloto. Previo al diseño, se analizaron las características
de dos pegamentos producidos con diferentes solventes, el tetrahidrofurano (THF) y la ciclohexanona (CH).
Además, se realizó una comparación con un producto comercial respecto a las características de adhesión. Se
decidió producir el cemento solvente de PVC con el uso de THF como solvente debido a su poder de disolución y
rápido secado. Las diferentes áreas de la planta se diseñaron para un procesamiento de 350 kg/día de tarjetas
desechadas, bajo la consideración de un proceso productivo que involucra 3 operaciones unitarias: disolución,
centrifugación y destilación. Se continuó con el diseño del proceso tecnológico y el diseño básico de la planta. La
superficie necesaria para el emplazamiento de la planta es de 700 m2 y la localización de la planta será en Itulcachi,
vía Pifo (Ecuador). El proyecto terminó con una evaluación económica, que dio como resultado un costo de
producción de 3,04 USD por frasco de 237 mL de cemento solvente de PVC y un precio de venta de 4,26 USD, un
valor inferior al del mercado que actualmente corresponde a 7,50 USD. La TIR del proyecto es del 69 % y el VAN
con una TMAR del 32 %, a 10 años, resultó igual a 662 526,56 USD. Por tanto, el proyecto es técnicamente viable
y atractivo económicamente.
Palabras clave: reciclaje de PVC, cemento solvente de PVC, tarjetas plásticas de identificación, tetrahidrofurano
Design of a Plant of PVC Solvent Cement from Recycled Plastic
Identification Card in Pilot Scale
Abstract: This paper presents the design of a PVC solvent cement production plant, from the recycling of plastic
identification cards, in a pilot scale. Prior to the design, the characteristics of two adhesives produced with different
solvents, tetrahydrofuran (THF) and cyclohexanone (CH), were analyzed. Furthermore, a comparison with a
commercial product, in adhesion properties, was performed. It was decided to produce PVC solvent cement using
THF as a solvent because of its dissolving power and fast drying. The different areas of the plant were designed for
processing 350 kg/day of discarded cards, considering a production process that involves three unit operations:
dissolution, centrifugation and distillation. Then, the technological process design and basic design of the plant
were stablished. The area for the location of the plant was determined in 700 m2 and the location of the plant will be
in Itulcachi - Pifo (Ecuador). The project ended with an economic analysis, resulting in a production cost of
3,04 USD per can of 237 mL of PVC solvent cement and the sale price was 4,26 USD, a lower price compared with
the current market value of 7,50 USD. The project IRR is 69 % and the NPV with a MARR of 32 %, at 10 years,
was 662 526,56 USD. As conclusion, the project is economically attractive and technically viable.
Keywords: PVC recycling, PVC solvent cement, plastic ID cards, tetrahydrofuran.
1
consumo de plásticos, aumenta también la generación de
residuos (BCE, 2015).
1. INTRODUCCIÓN
Según las cifras publicadas por el Banco Central del Ecuador
(BCE) en el boletín anuario 2015, las importaciones de
plásticos y caucho se han incrementado en los últimos años
desde 464 282 t en el año 2009 a 634 131 t en el año 2014.
La causa de este incremento es el beneficio que brindan estos
materiales en su uso; sin embargo, con el aumento del
[email protected]
En miles de dólares (FOB), las importaciones del país se
concentran mayoritariamente en cuatro partidas arancelarias
correspondientes a los siguientes polímeros: en primer lugar
el PE, seguido del PET, luego del PP y por último del PVC
(Cámara de Industrias de Guayaquil, 2012).
El PVC puede utilizarse en diversas aplicaciones como en
empaques, perfiles, techos, aislamiento de cables,
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
37
Inca Fernando1; Salguero Yadira1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
aplicaciones médicas emergentes, fabricación de tuberías,
entre otras. Esta versatilidad determina que este material se
convierta en un problema de eliminación postconsumo, si se
considera el crecimiento de la industria plástica (Janajreh et
al., 2015).
En los países desarrollados, el PVC es el polímero
mayoritariamente reciclado. Esto se debe a que se adapta
prácticamente a todos los métodos de reciclaje y como tal, se
ha dado una atención significativa en cuanto a investigación
y tecnología (Sadat y Bakhshandeh, 2011).
del cemento formulado con THF fueron similares a los del
pegamento comercial (Aldás e Inca, 2015).
Por tanto, el objetivo principal del presente trabajo fue
diseñar una planta, a escala piloto, que permita utilizar el
PVC contenido en las tarjetas plásticas de identificación de
tipo estudiantil, empresarial, médico o bancario, con el uso de
THF como disolvente, para obtener un cemento solvente de
PVC con características competitivas con respecto a los
pegamentos de PVC comerciales.
2. METODOLOGÍA
Debido a que en el Ecuador los restos de este material no se
aprovechan de forma eficiente, ya que se mezclan con otros
plásticos para reciclaje o terminan en rellenos sanitarios, se
han desarrollado estudios que permiten aprovechar este
polímero. Una alternativa, es obtener cemento solvente de
PVC a partir de tarjetas plásticas de identificación, cuyo
desgaste y caducidad generan una cantidad considerable de
estos residuos (Aldás e Inca, 2015).
No hay una formulación específica para el cemento solvente
puesto que existen un sinnúmero de sistemas de solventes
adecuados para el PVC. Sin embargo, se ha encontrado que
los cementos solventes con mezclas de tetrahidrofurano
(THF) y ciclohexanona (CH) cumplen con los requisitos de la
norma ASTM D2564: Especificaciones para cementos
solventes para sistemas de tubería plástica de policloruro de
Vinilo (PVC) (ASTM, 2014).
En la Tabla 1 se encuentran las características de un cemento
solvente comercial y de cementos solventes obtenidos con
THF (tetrahidrofurano) y CH (ciclohexanona). Estos
resultados indican algunas ventajas con respecto al uso del
solvente THF en comparación con el solvente CH, en cuanto
a tiempos de procesamiento, cantidad de solvente y adhesión.
Además, los resultados obtenidos en los ensayos de adhesión
2.1. Diseño de la planta piloto para la producción de
cemento solvente de PVC
El diseño de la planta se dividió en dos partes, la ingeniería
conceptual y la ingeniería básica.
2.1.1. Ingeniería conceptual
La ingeniería conceptual está compuesta por un análisis de la
disponibilidad de materia prima, la determinación de la
capacidad de la planta y su localización.
A pesar de que se pueden utilizar como materia prima las
tarjetas plásticas de identificación estudiantil, empresarial,
bancaria, de seguros médicos, entre otros, la capacidad de la
planta fue estimada con base en la cantidad de tarjetas
plásticas que dejaron de circular por decreto JB-2012-2225
de la Junta Bancaria en Julio de 2012 (SBS, 2012). La
cantidad de tarjetas plásticas de entidades financieras fue el
único dato bibliográfico considerado para estimar una
producción trimestral de tarjetas, puesto que en el Ecuador
aún no se ha cuantificado la cantidad de desechos generados
por el descarte de diversos tipos de tarjetas de identificación.
Tabla 1. Características del cemento solvente de PVC: comercial, con solvente THF y solvente CH respectivamente (Aldás e Inca, 2015)
Sistema
Tiempo de disolución de las
tarjetas [min] y relación de
disolución [tarjetas/solvente]
Concentración de
solvente en peso
Comercial
-
-
THF
CH
15 ; 1/5
45 ; 1/6
Ensayo de adhesión
Carga máxima
Tiempo [h]
[kN]
2
0,6263 ± 0,0169
16
0,8152 ± 0,0413
72
1,1258 ± 0,0556
2
0,6258 ± 0,0172
16
0,8147 ± 0,0346
Coloración
Transparente
Café oscuro
(transparente)
69,78 ± 0,84
72
1,0122 ± 0,0464
2
16
0,2816 ± 0,0235
72
0,5056 ± 0,0262
70,98 ± 0,30
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Café oscuro
(turbio)
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
Por otro lado, la ubicación de la planta se seleccionó con base
en siguientes criterios (Chango et al., 2015; Towler y Sinott,
2012):
38
personal, materia prima, insumos y producto, y los lugares de
almacenamiento.
2.2. Evaluación económica
-
Facilidades de transporte
Disponibilidad de servicios básicos
Disponibilidad de mano de obra
Regulaciones municipales
Se determinaron costos de producción y de venta del
producto, la inversión necesaria y los indicadores económicos
financieros TIR y VAN.
2.1.2. Ingeniería básica
La ingeniería básica demanda el diseño del proceso
tecnológico y el diseño básico de la planta.
2.1.2.1. Diseño del proceso tecnológico
Incluye la descripción del proceso productivo y la
elaboración de los diagramas de proceso.
Para la descripción del proceso productivo, se consideró el
proceso a escala laboratorio de la elaboración de cemento
solvente reportado en el estudio “Reciclaje de PVC a partir
de tarjetas de identificación plásticas para la obtención de un
pegamento de tubería” (Aldás e Inca, 2015).
Se realizó un balance de masa para un procesamiento de 350
kg/día de tarjetas recicladas ó 43,75 kg/h considerando
8 horas de trabajo por día. Además, se consideró que el
producto final tenga un 70% de solvente después del proceso
productivo.
Para estimar el costo de producción de un frasco de 237 mL
de cemento solvente de PVC se consideraron, entre otros, los
costos de la materia prima que comprenden las tarjetas de
identificación plásticas, así como también, costos de
reactivos, empaques, equipos y servicios auxiliares mediante
proformas actualizadas a inicios del año 2015. Por otro lado,
para estimar el precio de venta se estableció un 40 % de
ganancia con respecto al costo de producción.
Es necesario mencionar que no existe un precio oficial para el
costo de las tarjetas de identificación desechadas (materia
prima), debido a que aún no ha sido identificado como un
desecho comercializable. Por tal motivo, y con fines de
estimación económica, se consideró que el costo de las
tarjetas de identificación desechadas podría ser similar al del
PET reciclable.
3. RESULTADOS Y DISCUSIÓN
3.1. Diseño de la planta piloto para la producción de
cemento solvente de PVC
Con base en un balance de masa y las condiciones de entrada
y salida en cada subproceso, se realizaron el diagrama de
bloques (BFD) y el diagrama de flujo de proceso (PFD). Los
diagramas fueron elaborados de acuerdo estándares y
formatos recomendados (Turton et al., 2013).
3.1.1. Ingeniería conceptual
2.1.2.2. Diseño básico de la planta
Respecto a la disponibilidad de materia prima, las tarjetas de
identificación permiten controlar de mejor manera el acceso a
ciertos lugares o beneficios en diversos ámbitos como el
estudiantil, empresarial, deportivo, bancario y médico. Puesto
que estas tarjetas cuentan con una fecha de caducidad,
además de tener un desgaste, su desecho es frecuente, por lo
que no se presenta inconveniente alguno con la
disponibilidad de materia prima. Su recolección se realizará a
través de contenedores trituradores, que prevengan el fraude
por el uso de la información proporcionada en la tarjeta. Los
contenedores se ubicarán en centros comerciales a nivel
nacional. El material pasará a centros de acopio donde se
empacará para posteriormente ser llevado a la planta,
específicamente a la bodega de materia prima.
El diseño básico lo componen un listado de equipos en cada
área y la distribución en planta.
Sobre la base del proceso productivo, los equipos se ubicaron
en 5 diferentes áreas, cada una relacionada a un subproceso.
También se consideraron las bodegas. La selección de
equipos se realizó en función del balance de masa y energía,
de la capacidad requerida para cada subproceso y del
volumen de material almacenado. Además, con el objetivo de
evitar el vaciado completo de los tanques de almacenamiento
se aplicó un 20 % de sobredimensionamiento (Casanovas et
al., 2010).
La distribución en planta para la producción de cemento
solvente de PVC fue elaborada con el objetivo de ordenar los
espacios necesarios para los equipos y movimiento de
personal, materia prima y producto, además de considerar
aspectos de seguridad industrial (Casanovas et al., 2010). Por
ello, se tomó en cuenta el diagrama de recorrido del proceso
y la planificación de la producción, así como también, la
disposición y espaciamiento de equipos, los flujos de
En lo que se refiere a disponibilidad de materia prima,
determinación de la capacidad y localización de la planta se
encontró lo siguiente:
En cuanto a la determinación de la capacidad de la planta, si
se considera únicamente a los bancos privados, la producción
de tarjetas plásticas de crédito hasta octubre de 2011 fue de
aproximadamente 22,13 millones a nivel nacional, mientras
que la emisión por casas comerciales se estimó en
aproximadamente 3 millones de tarjetas (UCSG, 2012).
De acuerdo con la Superintendencia de Bancos y Seguros del
Ecuador (2012) y su resolución No. JB-2012-2225, a partir
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
39
Inca Fernando1; Salguero Yadira1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
del 5 de julio de 2012 solamente las instituciones financieras
y las compañías emisoras o administradoras de tarjetas de
crédito podrían actuar como emisores, por lo que cerca de 3
millones de tarjetas de crédito, correspondientes a casas
comerciales, se dejaron de utilizar en el país (SBS, 2012;
UCSG, 2012). A partir de este dato, para un 10 % de
procesamiento y una masa promedio de 6 g por tarjeta, se
definió una capacidad de 350 kg/día para la planta a escala
piloto.
Para la localización de la planta, se tomó en cuenta que el
plan de ordenamiento metropolitano territorial dicta que las
instalaciones industriales que producen efectos nocivos por
descargas líquidas no domésticas, emisiones de combustión,
ruido, residuos sólidos, entre otros, deben ubicarse en una
zona denominada de alto impacto (II3) (Concejo
Metropolitano de Quito, 2013). Por ello, la planta estará
localizada en una de las nuevas zonas industriales de Quito,
en el sector Itulcachi, vía Pifo. En este sitio existe
disponibilidad de servicios básicos, mano de obra y
facilidades de transporte.
con el balance de masa correspondiente para cada etapa. El
proceso productivo está dividido en un total de 3
subprocesos:
-
El primero corresponde a la disolución de las tarjetas
recolectadas.
-
El segundo, concerniente a la separación de cargas, se
divide en tres etapas. Cada etapa corresponde a un ciclo
de centrifugación.
-
El tercero, relacionado con la recuperación del solvente,
se divide en 2 etapas: la recuperación del solvente como
tal, y la obtención del cemento solvente de PVC.
El diagrama de flujo del proceso (PFD) se muestra en la
Figura 2. Como se puede observar consta de: disolución,
separación de cargas, recuperación de solvente y obtención
del cemento solvente de PVC. Además, se especifica la
temperatura de trabajo.
Se debe mencionar que en el subproceso de separación de
cargas no se emplearán tres equipos independientes
(centrifugadoras), sino que existirán tres ciclos de
centrifugación en el mismo equipo, por tal motivo, el proceso
se realizará de manera discontinua o tipo Batch.
3.1.2. Ingeniería básica
3.1.2.1. Diseño del proceso tecnológico
El proceso propuesto consta de las siguientes etapas y
operaciones:
Tarjetas
Recepción de la materia prima: la materia prima consiste
en material de desecho, en este caso tarjetas plásticas de
identificación. El material ingresará a la bodega de materia
prima por pacas.
262,50 kg
tarjetas disueltas
2,43 kg
Centrifugación
1,57 kg
Centrifugación
Cargas e
insolubles
258,50 kg
tarjetas disueltas
Destilación: el THF será recuperado con el objetivo de
eliminar el exceso del solvente en el cemento de PVC,
mediante una destilación. En este paso se empleará agua
como medio de enfriamiento.
En la Figura 1 se muestra el diagrama de bloques (BFD) del
proceso de producción de cemento solvente de PVC junto
Cargas e
insolubles
260,07 kg
tarjetas disueltas
Centrifugación: la separación de cargas del PVC se llevará a
cabo en tres ciclos de centrifugación, a 4 000 rpm y un
tiempo de 20 min, cada ciclo.
Envasado y almacenaje: el cemento solvente de PVC se
envasará en frascos de 237 mL. El producto final se
almacenará en la bodega de producto terminado para su
posterior despacho y venta.
218,75 kg
Disolución
Disolución: se procesarán 43,75 kg/h (8 h de trabajo por día)
de tarjetas plásticas de identificación. La disolución se
efectuará mediante el solvente THF. La relación en peso
tarjetas/solvente será de 1/5. El proceso se llevará a cabo a
temperatura ambiente y presión atmosférica.
Concentración: el pegamento para tuberías de PVC se
obtendrá luego de que en la destilación, el producto llegue a
una concentración de resina de aproximadamente 30 % en
peso, y se almacenará en un tanque.
THF
43,75 kg
1,43 kg
Centrifugación
Cargas e
insolubles
257,07
257,06
kgkg
129,35 kg
THF
Recuperación de solvente
127,72 kg
Cemento Solvente de PVC
Figura 1. Diagrama de bloques (BFD) del proceso de producción de
cemento solvente de PVC. Base de cálculo: 1 h
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
40
Figura 2. Diagrama de flujo (PFD) del proceso de producción de cemento solvente de PVC a partir de tarjetas plásticas de identificación
3.1.2.2. Diseño básico de la planta
En esta sección se presenta la lista de los equipos que
intervienen en el proceso productivo por cada área, así como
también la distribución en planta.
El listado de equipos, por cada área en la que se dividió la
planta, así como sus dimensiones largo (L), ancho (A) y
altura (H) se muestran en la Tabla 2. Para el proceso de
producción, también son necesarios un silo de
almacenamiento y dos tanques de disolución de respaldo que
se ubicarán en dos diferentes bodegas.
En la Figura 3 se muestra el plano de distribución de la planta
a escala piloto (Layout). La planta tendrá una superficie de
700 m2, la misma que incluye el área de procesamiento, las
oficinas, los parqueaderos y los espacios verdes.
El orden que sigue la producción es de izquierda a derecha,
con el inicio en la bodega de recepción de material, para
pasar a la disolución, luego a la separación de cargas,
recuperación de solvente y finalmente, a la bodega de
almacenaje del producto terminado.
3.2. Evaluación económica
El costo unitario de producción y el precio de venta unitario
del cemento solvente de PVC envasado en una presentación
de 237 mL se muestran en Tabla 3.
Los costos de producción están compuestos por materia
prima, mano de obra directa y carga fabril, como se presenta
en la Tabla 4. Con respecto al costo de la materia prima se
Tabla 3. Costo unitario de producción y de venta del cemento solvente de
PVC
Tabla 2. Listado de los equipos necesarios para el proceso productivo de
cemento solvente de PVC por área
Dimensiones [m]
Área
Equipo
1: Disolución
2: Separación de
cargas
3: Recuperación del
solvente
4: Almacenamiento
del solvente
Tanque de disolución
L
1,00
A
1,00
H
2,80
Centrífuga
1,49
1,13
1,48
Columna de destilación
2,90
0,98
3,85
0,87
0,87
2,18
0,87
0,87
2,18
Tanque de THF
recuperado
Tanque
5: Almacenamiento
almacenamiento de
del producto
cemento de PVC
L: largo, A: ancho, H: altura
Rubro anual
Valor [USD]
Costos de producción
2 772 892,001
Gastos de ventas
7 440,002
Gastos de administración y generales
124 739,003
Gastos de financiamiento
119 000,004
TOTAL
3 024 072,00
Costo unitario (994 896 unidades
producidas al año)
3,04
Ganancia (40 % del costo unitario)
1,22
Precio de venta unitario
4,26
1
de la suma de Materia prima, mano de obra directa, insumos, suministros,
reparación y mantenimiento, seguros e imprevistos (de la Tabla 4)
2
de Tabla 10
3
de Tabla 10 + Costo por mano de obra indirecta (de la Tabla 4)
4
de Tabla 5
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
41
Inca Fernando1; Salguero Yadira1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
Figura 3. Plano de distribución de la planta piloto para la producción de cemento solvente de PVC
Tabla 4. Costo de producción del cemento solvente de PVC
Rubro
Valor [USD/año]
Materia prima
Tarjetas recicladas
169 344,00
Solvente THF
1 799 885,00
4 Operarios*
20 160,00
Mano de obra directa
Carga Fabril
Mano de obra indirecta
Gerente general
Gerente técnico
Secretaria contadora
Guardia
Insumos
Envases
Cartones
Suministros**
Agua
Energía eléctrica
Combustible
Depreciación
60 000,00
28 800,00
14 400,00
5 760,00
720 000,00
18 000,00
230,00
11 321,50
600,00
18 094,50
Reparación y mantenimiento
4 054,00
Seguros
2 777,00
Imprevistos (3%)
Total Carga Fabril
26 521,00
910 558,00
[*] Salarios tomados del código del trabajo. Incluye beneficios de ley
[**] Los costos por consumo de agua y energía eléctrica se calcularon a
partir de las tarifas establecidas por la EMAAP para zonas industriales y por
la Empresa Eléctrica Quito respectivamente.
debe reiterar que a causa de la escasa información de fuentes
oficiales como del Ministerio del Ambiente y, puesto que este
tipo de residuos no es considerado para un reciclaje
comercial, se asumió que el costo de las tarjetas de
identificación desechadas podría ser similar al costo del PET
reciclable que corresponde a 1,80 USD/kg. En cuanto al
solvente, el THF tiene un valor de 3,10 USD/kg.
Los gastos de venta y los gastos de administración,
presentados en la Tabla 3, se pueden verificar en el Apéndice
A del presente trabajo. Adicionalmente, en este apartado
también se presenta el desglose de los rubros
correspondientes a la depreciación, costo por reparación y
mantenimiento y costos por seguros, cuya sumatoria se
presenta en la Tabla 4. En la Tabla 5 se muestran los gastos
de financiamiento, los mismos que están compuestos por los
intereses bancarios. El financiamiento se conseguirá a través
de una institución bancaria que maneja una tasa de interés del
12 %. La tabla de amortización francesa para un plazo de 36
meses se muestra en la Tabla 6.
Como se puede observar en la Tabla 3, el precio de venta del
cemento solvente a partir de tarjetas de identificación es de
4,26 USD, un valor inferior en un 43,2 % con respecto al
precio comercial de dicho producto, que actualmente en el
mercado alcanza 7,50 USD por frasco de 237 mL. En caso de
que el producto obtenido se comercialice a un precio similar al
del mercado, se podría obtener un margen de ganancia del
146,7 % con respecto al costo de producción.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
Tabla 5. Gastos por concepto de financiamiento del proyecto
Rubro
Valor [USD/año]
Inversión fija
Terreno (700 m2)
70 000,00
Obras civiles
50 000,00
Silo de almacenamiento
3 360,00
Tanques de disolución (3)
8 250,00
Centrífuga
27 800,00
Columna de destilación
30 175,00
Tanque de almacenamiento de
producto y tanque de THF recuperado
8 120,00
Computadores
2 500,00
Camión
30 000,00
Imprevistos (3 % de la inv. fija)
6 906,00
Capital de operación (3 meses)*
Materia prima
Mano de obra directa
Carga fabril**
492 307,00
5 040,00
223 116,00
Tabla 6. Tabla de Amortización Francesa.
Período
Saldo capital
Capital
Interés
0
608 027,42
1
593 912,48
14 114,94
6 080,27
2
579 656,40
14 256,09
5 939,12
3
565 257,75
14 398,65
5 796,56
4
550 715,12
14 542,63
5 652,58
5
536 027,06
14 688,06
5 507,15
6
521 192,12
14 834,94
5 360,27
7
506 208,83
14 983,29
5 211,92
8
491 075,70
15 133,12
5 062,09
9
475 791,25
15 284,45
4 910,76
10
460 353,95
15 437,30
4 757,91
11
444 762,28
15 591,67
4 603,54
12
429 014,69
15 747,59
4 447,62
13
413 109,63
15 905,06
4 290,15
Gastos de administración
3 945,00
14
397 045,51
16 064,11
4 131,10
Gastos de venta
1 860,00
15
380 820,75
16 224,76
3 970,46
Caja inicial
50 000,00
16
364 433,75
16 387,00
3 808,21
1 013 379,00
17
347 882,88
16 550,87
3 644,34
Capital propio (40 %)
405 352,00
18
331 166,50
16 716,38
3 478,83
Financiamiento (60 %)
608 027,00
19
314 282,95
16 883,55
3 311,66
Intereses
119 000,00
20
297 230,57
17 052,38
3 142,83
21
280 007,66
17 222,91
2 972,31
22
262 612,53
17 395,13
2 800,08
A partir del flujo de caja que se muestra en la Tabla 7 se
obtuvieron los indicadores financieros VAN y TIR. El
TMAR está constituido por la tasa activa referencial (5 %),
inflación anual del proyecto (5 %) y el costo de oportunidad
(22 %).
23
245 043,44
17 569,09
2 626,13
24
227 298,67
17 744,78
2 450,43
25
209 376,44
17 922,22
2 272,99
26
191 274,99
18 101,45
2 093,76
Los indicadores financieros resultantes del proyecto son los
siguientes: VAN (USD): 662 526,56; TIR: 69 %; tomando
como consideración una TMAR de 32 % y un período de
recupero de 10 años.
27
172 992,53
18 282,46
1 912,75
28
154 527,25
18 465,29
1 729,93
29
135 877,31
18 649,94
1 545,27
30
117 040,87
18 836,44
1 358,77
31
98 016,07
19 024,80
1 170,41
32
78 801,02
19 215,05
980,16
33
59 393,82
19 407,20
788,01
34
39 792,54
19 601,27
593,94
35
19 995,26
19 797,29
397,93
36
0,00
19 995,26
199,95
608 027,42
119 000,18
Inversión TOTAL
[*] Se solicitará un crédito de capital de trabajo para 3 meses
[**] Sin considerar depreciación
Como se puede apreciar, con la evaluación económica del
proyecto, la implementación de la planta piloto para la
producción de cemento solvente de PVC, obtenido a partir de
tarjetas plásticas de identificación, constituye un
emprendimiento de reciclaje rentable.
TOTAL
Cuota fija por período a partir del período 1: 20 195,21 USD
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
42
43
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
Tabla 7. Análisis de flujo del proyecto
Año 1
Ventas*
81,87 %
Costo Ventas
Utilidad Bruta
Año 2
Año 3
Año 4
Año 5
Año 6
Año 7
Año 8
Año 9
Año 10
3 386 960,00
3 598 645,00
3 810 330,00
4 022 015,00
4 233 700,00
4 233 700,00
4 233 700,00
4 233 700,00
4 233 700,00
4 233 700,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
2 772 892,00
614 068,00
825 753,00
1 037 438,00
1 249 123,00
1 460 808,00
1 460 808,00
1 460 808,00
1 460 808,00
1 460 808,00
1 460 808,00
Gastos Administrativos
3,67 %
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
124 269,00
Gastos Ventas
6,62 %
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
224 165,00
Depreciaciones
0,55 %
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
18 564,00
Utilidad Operativa
7,29 %
247 069,00
458 754,00
670 439,00
882 124,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
-
-
-
-
-
-
-
-
-
-
(+) Otros Ingresos
(-) Otros Egresos (financieros)
1,87 %
63 330,00
40 627,00
15 044,00
-
-
-
-
-
-
-
Utilidad antes de impuestos
5,42 %
183 740,00
418 128,00
655 395,00
882 124,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
1 093 809,00
Participación Trabajadores
27 561,00
62 719,00
98 309,00
132 319,00
164 071,00
164 071,00
164 071,00
164 071,00
164 071,00
164 071,00
Impuesto a la Renta
39 045,00
88 852,00
139 272,00
187 451,00
232 434,00
232 434,00
232 434,00
232 434,00
232 434,00
232 434,00
117 134,00
266 556,00
417 815,00
562 354,00
697 303,00
697 303,00
697 303,00
697 303,00
697 303,00
697 303,00
Flujo sin amortizaciones
135 698,00
285 121,00
436 379,00
580 919,00
715 868,00
715 868,00
715 868,00
715 868,00
715 868,00
715 868,00
Pago Capital
179 013,00
201 716,00
227 299,00
-
-
-
-
-
-
-
3,46 %
Utilidad Neta
152 017,00
Recuperación capital trabajo
Flujo anual
(43 314,00)
83 405,00
209 080,00
580 919,00
715 868,00
715 868,00
715 868,00
715 868,00
715 868,00
867 885,00
50 000,00
6 686,00
90 091,00
299 171,00
880 090,00
1 595 958,00
2 311 826,00
3 027 694,00
3 743 561,00
4 459 429,00
(43 314,00)
83 405,00
209 080,00
580 919,00
715 868,00
715 868,00
715 868,00
715 868,00
715 868,00
867 885,00
6 686,00
90 091,00
299 171,00
880 090,00
1 595 958,00
2 311 826,00
3 027 694,00
3 743 561,00
4 459 429,00
*Se considera que se alcanza la venta progresiva de unidades en un plazo de 5 años, empezando con un 80 % de ventas e incrementando 5 % cada año
5 327 314,00
Flujo de Caja
Saldo Inicial
Flujo
Saldo Final
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto
_________________________________________________________________________________________________________________________
4. CONCLUSIONES
La implementación de una planta piloto para la producción
de cemento solvente de PVC se justifica por varias razones:
el proceso productivo es sencillo, el costo de la materia prima
es bajo por ser un material reciclado, y además, se disminuye
el impacto ambiental generado por este tipo de desechos.
La planta se diseñó para un procesamiento de 350 kg/día de
tarjetas desechadas, con una distribución en “U”. El proceso
productivo es discontinuo o tipo “Batch”, e involucra 3
operaciones unitarias: disolución, centrifugación y
destilación. La superficie requerida para el emplazamiento de
la planta es de 700 m2.
El precio de venta de un frasco de 237 mL de cemento
solvente, obtenido a partir de las tarjetas de identificación, es
de 4,26 USD, un valor inferior en un 43,2 % con respecto al
precio de venta de este producto en el mercado local el cual
rodea los 7,50 USD.
La implementación de la planta piloto constituye una
alternativa rentable para el reciclaje de las tarjetas de
identificación de PVC, con un porcentaje de ganancia del
40 % (con respecto al costo de producción) si se considera un
precio de venta de 4,26 USD; y un porcentaje mayor al 140 %
(con respecto al costo de producción) si el producto se
comercializa a un valor similar al del mercado.
Con base en el análisis técnico-económico, se determinó que
la TIR del proyecto es del 69 % y el VAN con una TMAR
del 32 %, a 10 años, resultó mayor a 0 (662 526,56 USD);
por lo que el proyecto es rentable y viable.
44
Casanovas, J., Morell, M., Blanco, C., Martínez, L., Mata, S. y Carballo, N.
(2010). Manual de cálculos para una planta de producción de acetaldehído.
Barcelona, España: Universidad Autónoma de Barcelona.
Chango, I., Pazmiño, M. y Quiroz, F. (2015). Diseño Preliminar de una
Planta de Mezclado de Poliolefinas Comerciales y Recicladas a Escala
Piloto. Revista Politécnica, 35(3), 126-136.
Concejo Metropolitano de Quito. (2013). Ordenanza Metropolitana No. 0447
que Establece el Plan Metropolitano de Ordenamiento Territorial (PMOT).
Obtenido
de:
http://www.quitohabitat.gob.ec/ARCHIVOS/LOTAIP/
LITERAL_A/A2_35_ORDENANZA_No0447_PLAN_ORDENAMIENTO
_TERRITORIAL.pdf (Febrero, 2015)
Janajreh, I., Alshrah, M. y Zamzam, S. (2015) Mechanical Recycling of PVC
Plastic Waste Streams from Cable Industry: A Case Study. Sustainable
Cities and Society, 18(1), 13-20. Obtenido de http://www.
sciencedirect.com.bvirtual.epn.edu.ec/science/article/pii/S221067071500053
0 (Diciembre, 2015)
Sadat, M. y Bakhshandeh, G. (2011). Recycling of PVC wastes. Polymer
degradation
and
stability,
96(4),
404-415.
Obtenido
de:
http://www.sciencedirect.com.bvirtual.epn.edu.ec/science/article/pii/S01413
91010004556 (Diciembre, 2015)
SBS - Superintendencia de Bancos y Seguros del Ecuador. (2012).
Resolución No. JB-2012-2225 - La Junta Bancaria. Obtenido de:
http://www.sbs.gob.ec/medios/PORTALDOCS/downloads/normativa/2012/r
esol_JB-2012-2225.pdf (Febrero, 2015)
Towler, G. y Sinott, R. (2012). Chemical Engineering Design. (2nd ed.).
Massachusetts, United States of America: Butterworth-Heinemann
Turton, R., Bailie, R., Whiting, W., Shaeiwitz, J. y Bhattacharyya, D. (2013).
Analysis, Synthesis and Design of Chemical Processes. (4th ed.). New
Jersey, United States of America: Prentice Hall.
UCSG - Universidad Católica de Santiago de Guayaquil. (2012). Informe de
Coyuntura Económica. Obtenido de: http://www.elfinanciero.com/
banca_especiales/tema_12_2012/banca_01_2012.pdf (Febrero, 2015)
AGRADECIMIENTO
Agradecemos a la Escuela Politécnica Nacional, por el
financiamiento de la investigación, a través de los fondos del
Proyecto Semilla PIS 12-43. Además, agradecemos al Ing.
Carlos Andrés Solórzano Mendoza M.Sc. por su criterio y
aporte en la evaluación económica del presente estudio.
REFERENCIAS
Aldás, M. y Inca, F. (2015). Reciclaje de PVC a partir de tarjetas de
identificación plásticas para la obtención de un pegamento de tubería.
Revista Digital Congreso de Ciencia y, Tecnología ESPE 2015, 10(1), 176181.
ASTM. (2014). Standard Specification for Solvent Cements for Poly (Vinyl
Chloride) (PVC) Plastic Piping Systems (ASTM D2564-12). Obtenido de:
http://compass.astm.org/EDIT/html_annot.cgi?D2564+12.
BCE - Banco Central del Ecuador. (2015). Boletin anuario 2015. Capítulo
III. Comercio Exterior: Importaciones por secciones de la nomenclatura
arancelaria,
Toneladas.
Obtenido
de:
http://www.bce.fin.ec/
index.php/component/k2/item/327-ver-bolet%C3%ADn-anuario-pora%C3%B1os (Febrero, 2015)
Cámara de Industrias de Guayaquil. (2012). Importaciones de materias
primas plásticas. Obtenido de: http://www.industrias.ec/archivos/file/
INFORMACION%20PARA%20AFILIADOS/Import_m_primas_plast_corr
egida03_100212.pdf (Febrero, 2015)
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
45
Inca Fernando1; Salguero Yadira1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
Tabla 10. Gasto por vetas del cemento solvente de PVC y gastos de
administración
APÉNDICE A
DESGLOSE DE COSTO CALCULADOS PARA EL
ANÁLISIS FINANCIERO
Los rubros correspondientes a la depreciación, costo por
reparación y mantenimiento y costos por seguros se
encuentran desglosados en las Tablas 8 y 9.
Los gastos de ventas y los gastos de administración se
encuentran en la Tabla 10.
Rubro
Valor [USD/año]
Gasto por vetas
2 400,00
Publicidad
5 040,00
Vendedor
Total
Gastos de administración
Depreciación de otros activos
Concepto
Valor [USD]
Vida
útil
(años)
50 000,00
20
2 500,00
Silo de almacenamiento
3 360,00
10
336,00
Tanques de disolución
8 250,00
10
825,00
Centrífuga
27 800,00
10
2 780,00
Columna de destilación
Obras civiles
30 175,00
10
3 017,50
Tanques de almacenamiento
del cemento y del THF
recuperado (2 tanques)
8 120,00
10
812,00
Computadores
2 500,00
3
833,33
30 000,00
5
6 000,00
Imprevistos de la inversión
fija
6 906,15
10
690,61
Gastos de puesta en marcha
3 000,00
10
300,00
Camión
Total
18 094,00
Depreciación de otros activos
Mobiliario de oficina
3 000,00
10
300,00
Constitución de la sociedad
1 000,00
10
100,00
700,00
10
70,00
Total
470,00
Imprevistos (1 % del costo del
terreno)
Tabla 9. Costo por reparación y mantenimiento y por concepto de seguros
Valor
[USD]
Concepto
%
Costo anual
[USD/año]
Reparación y mantenimiento
Maquinaria y equipo
77 705,00
2
1 554,10
Camión
30 000,00
5
1 500,00
Construcciones
50 000,00
2
1 000,00
Total
4 054,10
Seguros
Maquinaria y equipo
77 705,00
1
777,05
Camión
30 000,00
5
1 500,00
Construcciones
50 000,00
1
500,00
Total
309,00
Otros imprevistos (2 %)
Costo anual
[USD/año]
2 777,05
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
470,00
15 000,00
Gastos de oficina
Tabla 8. Depreciación
7 440,00
Total
15 779,00
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados
_________________________________________________________________________________________________________________________
46
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas
de Identificación para la Obtención de Materiales Plastificados
Inca Fernando1; Quiroz Francisco1; Aldás Miguel1

1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y
Agroindustria, Quito, Ecuador
Resumen: El presente trabajo tuvo como objetivo la recuperación del PVC proveniente de tarjetas plásticas de
identificación. Inicialmente se caracterizaron las tarjetas mediante FTIR, DSC, TGA, dureza y ensayo traccióndeformación. En la obtención de un primer producto, a las tarjetas se les redujo su tamaño hasta Dp = 400 µm, luego
al resultado se plastificó mediante DOP y DIBP, a dos concentraciones. El producto obtenido se caracterizó
mediante DSC y ensayo tracción-deformación, el cual determinó una elongación a la rotura superior a 140 %. En la
obtención de un segundo producto se empleó una disolución de las tarjetas, separación de cargas, plastificación,
recuperación de solvente y un secado. Como solventes se emplearon el tetrahidrofurano y ciclohexanona, y como
plastificantes el DOP y DIBP, a dos concentraciones. Este producto se caracterizó mediante FTIR, DSC, TGA,
dureza y ensayo tracción-deformación, el cual determinó una elongación a la rotura superior a 500 %.
Palabras clave: reciclaje, PVC, tarjetas plásticas de identificación, plastificante, DOP, DIBP.
Recovery of Polyvinyl Chloride (PVC) from ID cards to Obtain
Plasticized Materials
Abstract: This study aimed the recovering of PVC from plastic ID cards. Initially the cards were characterized by
FTIR, DSC, TGA, hardness and tensile-strain properties. To obtain a first product, the cards were reduced in size to
Dp = 400 µm. Then, they were plasticized with DOP and DIBP, at two concentrations. The product obtained was
characterized by DSC and tensile-strain properties, where it was determined an elongation at break greater than
140 %. To obtain a second product, the process consisted in: dissolution of cards, fillers separation, mix with a
plasticizer, solvent recovery and drying of the product. As solvents, tetrahydrofuran and cyclohexanone were used.
As plasticizers, DOP and DIBP at two concentrations were used. This second product was characterized by FTIR,
DSC, TGA, hardness and tensile-strain properties, where it was determined an elongation at break greater than
500 %.
Keywords: recycling, PVC, ID cards, plasticizer, DOP, DIBP.
1
1. INTRODUCCIÓN
En el Ecuador, la producción nacional de tarjetas plásticas de
crédito a octubre de 2011 se estimaba en el orden de 22,13
millones, emitidas solamente por los Bancos Privados y 3
millones las tarjetas emitidas por casas comerciales que son
administradas y respaldadas por los bancos privados
(Universidad Católica de Santiago de Guayaquil, 2012).
Debido a la gran cantidad de producción y consumo de las
tarjetas de identificación plásticas (carnets, identificaciones
empresariales, seguros privados, entre otras) se dispone de
una cantidad considerable de desechos de dichas tarjetas.
Con base en las cifras antes mencionadas y bajo la
consideración de que este tipo de tarjetas se desechan con
frecuencia, ya sea por caducidad o por desgaste de las
mismas, se puede inferir que la cantidad de residuos de este
[email protected]
tipo de material que se generan es considerable y la cual no
tiene un tratamiento adecuado (Centro de Estudios y
Experimentación de Obras Públicas, 2013; Plastics Europe,
2013).
El presente proyecto tuvo como finalidad aprovechar el PVC
de estas tarjetas para la obtención de materiales flexibles, y
mediante diferentes ensayos comparar sus propiedades. Por
esta razón se planteó experimentar con dos procesos de
reciclaje diferentes, para determinar los parámetros
adecuados de procesamiento que permitan aprovechar de
mejor manera los materiales presentes en este tipo de tarjetas
plásticas.
2. MATERIALES Y MÉTODOS
2.1. Materiales
Las tarjetas de identificación a ser recicladas, fuente del PVC
usado en la obtención de todos los productos, fueron
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
47
Inca Fernando1; Quiroz Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
recolectadas de una compañía de seguro médico de la
Escuela Politécnica Nacional del Ecuador. Se recolectaron
tres tipos de tarjetas, las cuales fueron analizadas
respectivamente.
reflectancia total atenuada (ATR) desde los 4 000 a 600 cm-1
en un espectrofotómetro Perkin Elmer modelo SpectrumOne.
En la disolución a las tarjetas plásticas se emplearon
tetrahidrofurano (THF) y ciclohexanona (CH), por separado,
de grado analítico.
La materia prima recolectada (tarjetas de identificación) fue
molida hasta un Dp= 40 µm. Luego de lo cual, se pesó
aproximadamente 20 mg, y se colocó en una celda de
aluminio para posteriormente ser sellada. Se utilizó una celda
vacía como referencia. Para todas las muestras se efectuó una
sola repetición, para salvaguardar el equipo de cualquier
vapor generado del PVC.
En la plastificación del PVC, se usaron el DOP
(dioctilftalato) y DIBP (di-isobutilftalato), de grado analítico.

Temperatura de transición vítrea (Tg)
2.2. Métodos
Las mediciones experimentales en todos los análisis y
ensayos se realizaron de acuerdo a normas ASTM. Con los
resultados obtenidos se determinaron los valores promedio y
las desviaciones estándar.
2.2.1. Obtención de los materiales plastificados

Primer producto
Los barridos (calentamientos y enfriamientos) se efectuaron
en un Calorímetro TA modelo Q2000, en una atmósfera de
nitrógeno con flujo de 20 mL/min. Las condiciones a las que
se trabajó se detallan a continuación:
a) Primer calentamiento: desde -80 hasta 90 °C a una tasa de
calentamiento de 20 °C/min
b) Paso Isotermal: se mantuvo la temperatura de 90 °C
durante 15 min
Para obtener el primer producto se mezclaron las tarjetas con
Dp = 400 µm (obtenido mediante lijado y tamizado) junto
con el plastificante respectivo (DOP o DIBP), en un
recipiente plástico de 1 L. La agitación se la realizó mediante
un agitador mecánico marca TLINE modelo 102, a 3 000 rpm
por un tiempo máximo de 5 minutos.
c) Primer enfriamiento: desde 90 hasta -80 °C a una tasa de
enfriamiento de 20 °C/min
d) Segundo calentamiento: desde -80 hasta 90 °C a una tasa
de calentamiento de 20 °C/min
De la mezcla obtenida se pesaron 20 g, mediante una balanza
Denver Instrument Company AA-200, 200 g, 0,0001 g, y se
colocaron entre dos placas metálicas. El sistema se colocó en
una prensa calefactora a 130 °C y 11 t, durante un tiempo de
20 segundos.
e) Paso Isotermal: se mantuvo la temperatura de 90 °C
durante 15 min

Para la determinación de la temperatura de transición vítrea
(Tg), se usó el método de la primera derivada, a partir del
termograma obtenido en el segundo calentamiento.
Segundo producto
Para obtener el segundo producto, primero se separó el PVC
de las cargas que contenía. Para esto, el proceso seguido fue:
una disolución de las tarjetas, separación de cargas e
insolubles mediante una centrifugación. Luego, a la solución
resultante se realizó la plastificación, junto con la
recuperación del solvente. Finalmente, se realizó un secado a
las placas obtenidas.
La separación de las cargas e insolubles del PVC, se hizo
mediante tres ciclos de centrifugación, a 4 000 rpm durante
un tiempo de 20 min, en una centrífuga HealForce, modelo
NEOFUGE 15 y el secado a 40 y 120 °C, para el THF y CH,
respectivamente, en una estufa MMM Group, modelo
Venticell 55.
2.2.2. Caracterización de la materia prima y productos
obtenidos

f) Segundo enfriamiento: desde 90 °C hasta temperatura
ambiente a una tasa de enfriamiento de 20 °C/min

Análisis termogravimétrico
De las tarjetas plásticas y de los productos plastificados, se
tomaron aproximadamente 10 mg, y se colocaron en un
equipo marca TA modelo Q500. El ensayo se llevó a cabo en
una atmósfera de nitrógeno con flujo de 50 mL/min, desde la
temperatura ambiental hasta 800 °C.

Ensayo de tracción-deformación
El ensayo de tracción-deformación se realizó de acuerdo a la
norma ASTM D638, probeta número IV. Los productos
obtenidos se cortaron en una máquina troqueladora marca
CEAST tipo 6051, y se procedió a ensayar cada uno en un
equipo de ensayos universal marca INSTRON modelo I0II, a
una velocidad de ensayo de 50 mm/min.
Espectroscopía de infrarrojo (FTIR)

Tanto la materia prima (tarjetas plásticas de identificación),
así como los diferentes productos obtenidos, se analizaron
por transmisión desde los 4 000 a 400 cm-1, y mediante
Ensayo de dureza
La dureza se determinó mediante la norma ASTM D2240-05,
la cual menciona un espesor mínimo de 6 mm del material a
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados
_________________________________________________________________________________________________________________________
48
ensayarse. Debido al espesor de las tarjetas (0,70 mm) y
productos obtenidos (2,00 mm), se apilaron varias muestras
(una sobre otra) y sobre estas se hicieron las respectivas
mediciones de dureza en la escala Shore A.
.
3. RESULTADOS Y DISCUSIÓN
3.1. Caracterización de la materia prima
3.1.1. Análisis por Espectroscopía de infrarrojo (FTIR)
El análisis aplicado a los tres tipos de tarjetas mostraron
espectros IR similares para todas las muestras (tarjetas tipo 1,
2 y 3). En el espectro se puede observar las bandas
características del PVC, es decir aquellas que se encuentran
en los 1 430 y 690 cm-1 (Blazevska-Gilev y Spaseska, 2007;
González Horrillo, 2005).
Con estos resultados, se puede confirmar que las tarjetas
recolectadas, tienen como componente mayoritario PVC.
3.1.2. Análisis por Calorimetría diferencial de barrido (DSC)
Para las tarjetas plásticas recolectadas se determinó una sola
transición vítrea a 80,7 °C. Mediante este valor se puede
confirmar que la materia prima se trata de PVC rígido, ya que
se encuentra dentro del rango para este material (Engineers
India Research Institute, 2012).
Figura 1. Termograma de las tarjetas plásticas recicladas
3.1.5. Análisis termogravimétrico
En la Figura 1 se muestra el termograma de las tarjetas
plásticas (materia prima). Para este material se observan
claramente dos etapas correspondientes a la degradación del
PVC, y un residuo que corresponde al porcentaje de cargas
que formaban parte de las tarjetas. Es así que, el PVC
representaba el 77,82 % en peso y las cargas o residuo un
22,18 %.
3.2. Primer producto plastificado
3.2.1. Temperatura de transición vítrea (Tg)
3.1.3. Ensayo de tracción-deformación
Los resultados del ensayo tracción-deformación de las
tarjetas plásticas recolectadas fueron: 7,10 ± 0,25 % de
deformación a la rotura; y 1139,60 ± 77,81 [MPa] de módulo
de Young. Al igual que en el análisis por FTIR, los tres tipos
de tarjetas presentaron resultados muy similares,
seleccionando un tipo de tarjeta, sobre el cual se hizo la
discusión de resultados y las comparaciones posteriores. El
tipo de tarjeta elegido fue el tipo 2.
Al comparar los valores obtenidos para la tarjeta tipo 2 con
datos bibliográficos, se puede observar que se encuentran
dentro del rango según Blanco Álvarez (2006);
específicamente los resultados del parámetro porcentaje de
deformación (0-40 %). Con base en estos resultados se puede
concluir que la materia prima (tarjetas) es PVC sin plastificar.
3.1.4. Ensayo de dureza
Los resultados del ensayo de dureza Shore D para los tres
tipos de tarjetas recolectadas fueron: 73,80 ± 1,47 para el tipo
1; 74,20 ± 1,33 para el tipo 2 y, 73,60 ± 1,20 para el tipo de
tarjeta 3. Como se puede observar el valor promedio de la
dureza es muy similar para los tres tipos de tarjetas,
comprobando una vez más que están hechas de componentes
semejantes, como el PVC.
En la Figura 2 se muestran las Tg de los productos obtenidos,
con respecto a la concentración de plastificante DOP y DIBP.
Para determinar la Tg, únicamente en esta sección, se añadió
una concentración de plastificante, 20 %, a las previamente
planteadas (40 y 60 %). Esta concentración fue necesaria para
obtener la tendencia de la Tg con el aumento de plastificante.
Se debe remarcar que la concentración de 20 % de
plastificante no se empleó para ningún otro ensayo, durante el
resto del proyecto.
En la Figura 2 se puede observar, para el sistema plastificado
mediante DOP, que luego del segundo punto (C = 20 %
DOP) ya se alteró la tendencia previa (lineal), es decir, para
el tercer punto la relación entre la Tg y la concentración ya
no decreció en la misma magnitud. Esto se debe a que el
sistema alcanzó la concentración crítica de plastificación, es
decir, que a ésta concentración la posibilidad de interacción
deja de ser efectiva y, a partir de ella, el plastificante tiene
impedida la capacidad de solvatarse en la resina (González
Horrillo, 2005).
Con respecto a los sistemas plastificados mediante DIBP, a
medida que se incrementó la cantidad de plastificante,
disminuyó la Tg, pero a diferencia del sistema anterior, la
relación lineal entre Tg y porcentaje de plastificante se dio
hasta un 40 % DIBP.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
49
Inca Fernando1; Quiroz Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
Tabla 1. Resultados ensayo tracción-deformación en los sistemas
plastificados mediante DOP y DIBP
Módulo de
Concentración
Deformación
Deformación a
Young
[%]
al Pico [%]
la Rotura [%]
[Mpa]
Sistemas con DOP
40
90,67 ± 7,83
100,58 ± 9,90
84,90 ± 6,93
60
131,56 ± 7,27
154,78 ± 5,76
70,83 ± 2,95
40
92,51 ± 1,47
102,13 ± 5,96
75,80 ± 4,22
60
140,08 ± 8,62
180,08 ± 5,14
61,66 ± 5,68
Sistemas con DIBP
Figura 2. Temperatura de transición vítrea con respecto a la concentración
de plastificante
±σ
3.2.2. Ensayo tracción deformación
En la Tabla 1 se muestran los resultados del ensayo traccióndeformación para los sistemas con 40 y 60 % de DOP y
DIBP, respectivamente.
Para el sistema plastificado mediante DOP, se puede observar
como la deformación aumentó y el módulo disminuyó, a
mayor concentración de plastificante, lo cual se debe a la
plastificación, ya que la elongación debe incrementarse con
el aumento de la concentración de plastificante (Wypych,
2012).
Para el sistema plastificado mediante DIBP. Para la
concentración de 60 % la elongación, tanto al pico como a la
rotura, es mayor para estos sistemas que para aquellos
plastificados con DOP.
Al comparar el porcentaje de deformación a la rotura y el
módulo de Young entre los sistemas plastificados con DOP y
DIBP, que se muestra en la Tabla 1 y Tabla 3,
respectivamente, se puede observar que parámetros como la
deformación aumentaron, mientras que el módulo disminuyó,
lo cual determina que el producto obtenido a estas
condiciones se trata de un material dúctil (UVA, 2008).
Figura 3. Espectro IR para el sistema PVC/DOP 40/60
Tabla 2. Temperatura de transición vítrea de los sistemas plastificados
Solvente
Sistema
Concentración [%]
Tg [°C]
THF
PVC/DOP
CH
THF
PVC/DIBP
3.3. Segundo producto plastificado
CH
60/40
-32,32
40/60
-58,29
60/40
-27,60
40/60
-59,68
60/40
-21,66
40/60
-51,42
60/40
-2,32
40/60
-46,74
3.3.1. Análisis por espectroscopía infrarrojo (FTIR)
En la Figura 3 se puede observar como el espectro IR
concuerda en la ubicación de las bandas características del
plastificante tipo ftalato. Estas bandas aparecen en 1 729,
1 601, 1 579, 1 457, 1 374, 1 122, 1 068, 1 036, 739 cm-1
(Wypych, 2012), confirmando que los sistemas PVC/DIBP y
PVC/DOP, se plastificaron a las concentraciones propuestas.
Los espectros de los sistemas restantes son muy similares al
de la Figura 3, por esta razón no se muestran en esta sección.
3.3.2. Temperatura de transición vítrea (Tg)
En la Tabla 2 se muestran las Tg para los sistemas disueltos
en THF y CH, y plastificados con DOP y DIBP. Como se
puede observar, las Tg obtenidas para los sistemas
plastificados con DOP muestran valores muy similares a los
mostrados en investigaciones previas para este plastificante
(Turi, 1997).
Las Tg, a mayor concentración de plastificante disminuyeron
su valor, lo que cumple con la definición de plastificante. Se
debe mencionar que el método utilizado para determinar la
Tg puede presentar errores durante su determinación, ya que
al existir residuos de solvente, estos pueden influenciar en los
resultados obtenidos. Un ejemplo de este enunciado se
presenta en el sistema PVC/DIBP 60/40, el cual debería
mostrar una Tg mucho menor.
3.3.3. Ensayo tracción-deformación
a) Sistemas disueltos en THF
En la Tabla 3 se muestran los resultados del ensayo traccióndeformación para los sistemas plastificados mediante DOP y
DIBP, respectivamente, a 0 (tarjetas plásticas), 40 y 60%. En
esta tabla, al comparar el parámetro deformación al pico o a
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados
_________________________________________________________________________________________________________________________
Tabla 3. Resultados ensayo tracción-deformación en los sistemas
plastificados mediante DOP y DIBP disuelto en THF y CH respectivamente
Deformación
Concentración
Deformación
Módulo de
a la
[%]
al Pico [%]
Young [Mpa]
Rotura [%]
Disolvente THF; plastificante: DOP
0
40
60
7,10 ± 0,25
501,92 ±
14,02
533,06 ±
14,81
7,10 ± 0,25
1139,60 ±
77,81
528,48 ± 17,15
2,58 ± 0,08
549,20 ± 15,15
0,34 ± 0,04
Tabla 4. Resultados de dureza Shore A para los sistemas plastificados
Solvente
Sistema
Concentración
Dureza Shore
[%]
A
60/40
54,0 ± 1,1
THF
40/60
20,0 ± 1,1
PVC/DOP
CH
THF
PVC/DIBP
Disolvente THF; plastificante: DIBP
0
40
60
7,10 ± 0,25
521,52 ±
39,86
563,40 ±
36,40
7,10 ± 0,25
1139,60 ±
77,81
527,84 ± 40,05
2,02 ± 0,04
586,24 ± 40,90
0,45 ± 0,02
50
CH
60/40
52,8 ± 1,3
40/60
21,6 ± 1,0
60/40
65,2 ± 1,2
40/60
27,2 ± 1,2
60/40
68,0 ± 1,4
40/60
28,0 ± 0,9
±σ
3.3.4. Ensayo de dureza
Disolvente CH; plastificante: DOP
0
40
60
7,10 ± 0,25
424,67 ±
33,21
444,26± 45,43
7,10 ± 0,25
1139,60 ±
77,81
427,84 ± 33,62
1,61 ± 0,14
454,40 ± 42,49
0,33 ± 0,03
Disolvente CH; plastificante: DIBP
0
40
60
7,10 ± 0,25
384,58 ±
26,10
462,92 ±
51,75
Como se puede observar en la Tabla 4, los valores de las
durezas son similares para una misma concentración, sea para
el THF o la CH. El resultado de dureza correspondiente a la
concentración más alta, 60% DOP o DIBP, para cualquier
solvente, es el que mostró el valor más bajo de dureza,
confirmando que a mayor concentración de plastificante
menor será la dureza.
7,10 ± 0,25
1139,60 ±
77,81
386,88 ± 26,53
2,33 ± 0,11
3.3.5. Análisis termogravimétrico
479,12 ± 55,42
0,33 ± 0,02
Los resultados de este análisis se utilizaron para determinar la
concentración real de cada uno de los sistemas, a partir del
termograma obtenido.
±σ
la rotura, se puede notar como las cargas presentes en las
tarjetas de identificación no permitieron una mayor
plastificación, ya que este parámetro aumentó luego de la
centrifugación. Así, se concluye que este sistema es blando,
caracterizado por un bajo módulo de Young y una gran
elongación (Blanco Álvarez, 2006; Seymour y Carraher,
2002; UVA, 2008).
Para los sistemas con DIBP a 40 y 60% también hubo
plastificación. Además al comparar los valores de la Tabla 3
entre ellos, se puede notar una mayor elongación para los
sistemas plastificados con DIBP que para aquellos
plastificados con DOP.
a) Sistemas disueltos en CH
En la Tabla 3 también se muestran los resultados del ensayo
tracción-deformación para los sistemas plastificados
mediante DOP y DIBP, respectivamente, a 0 (tarjetas
plásticas), 40 y 60%. Como se puede observar para el sistema
con DOP, el porcentaje de deformación aumentó, mientras
que el módulo de Young disminuyó. Además, en los
resultados del sistema plastificado por DIBP, se puede notar
que el porcentaje de deformación más bajo corresponde al
40%, de entre todos los sistemas plastificados de esta
sección. Tal resultado se debe a que el sistema no se llega a
plastificar hasta la concentración deseada, debido a que la
cantidad de plastificante añadido no fue la correcta.
a) Sistemas disueltos en THF
Como se observa en la Tabla 5, la concentración de 40%
DOP es muy cercana al valor teórico, mientras que para el
60% DOP existe una variación mucho mayor. En contraste,
existe mayor diferencia para la concentración teórica 40%
DIBP y una menor para la de 60% DIBP. La variación entre
el valor teórico y el real pudo deberse a que las condiciones
de centrifugación (4 000 rpm y 20 min) no fueron las óptimas
para una mayor separación de las cargas.
b) Sistemas disueltos en CH
En la Tabla 5 se puede observar como los sistemas disueltos
en CH mostraron mayores desviaciones del valor teórico, que
aquellos disueltos en THF.
En las Figuras 4 y 5 se muestran dos termogramas para los
sistemas plastificados mediante DOP y DIBP. Debido a la
gran similitud en las gráficas de los sistemas restantes, no se
muestran los termogramas en esta sección. También se debe
añadir que mediante la primera derivada (dentro del análisis
del termograma obtenido) se pudieron determinar las
temperaturas iniciales y finales de cada etapa, y por tanto, la
concentración reportadas de cada componente en el sistema
plastificado.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
51
Inca Fernando1; Quiroz Francisco1; Aldás Miguel1
_______________________________________________________________________________________________________________________________
Tabla 5. Concentraciones de los componentes en los sistemas plastificados
con DOP y DIBP, disueltos en THF y CH respectivamete, determinadas
mediante ensayo termogravimétrico
Concentración Componente
Concentración real [%]
teórica [%]
Disolvente THF; plastificante: DOP
DOP
40,65
PVC
51,94
40
Residuo
7,41
DOP
65,44
PVC
29,23
60
Residuo
5,33
40
60
40
60
40
60
Disolvente THF; plastificante: DIBP
DIBP
44,21
PVC
50,96
Residuo
4,83
DIBP
62,03
PVC
33,07
Residuo
4,90
Figura 4. Termograma correspondiente a un sistema plastificado con DOP a
una concentración de 60 %
Disolvente CH; plastificante: DOP
DOP
39,08
PVC
54,85
Residuo
6,07
DOP
62,78
PVC
31,98
Residuo
5,24
Disolvente CH; plastificante: DIBP
DIBP
34,09
PVC
59,16
Residuo
6,75
DIBP
55,8
PVC
38,59
Residuo
5,61
En la Figura 4 se muestra el termograma correspondiente a
un sistema plastificado mediante DOP a una concentración de
60 %. Al comparar la Figura 1 con la Figura 4, se puede notar
como en esta última aparece una nueva etapa, por lo cual este
sistema consta de tres etapas y un residuo. La primera etapa
corresponde al DOP, la segunda y tercera corresponden al
PVC, y el residuo a las cargas todavía presentes en el sistema
plastificado.
En la Figura 5 se muestra el termograma correspondiente a
un sistema plastificado mediante DIBP a una concentración
de 40 %. Al comparar la Figura 1 con la Figura 5, se puede
notar como en esta última aparecen dos nuevas etapas, por lo
cual este sistema consta de cuatro etapas y un residuo. La
primera y segunda etapas corresponden al DIBP, la tercera y
cuarta corresponden al PVC, y el residuo a las cargas todavía
presentes en el sistema plastificado.
El análisis termogravimétrico permitió obtener las
concentraciones reales de todos los sistemas plastificados
obtenidos. Además, gráficamente, en las Figuras 1, 4 y 5, se
pudieron observar las etapas de descomposición del PVC y
de los plastificantes DOP, DIBP respectivamente.
Figura 5. Termograma correspondiente a un sistema plastificado con DIBP a
una concentración de 40 %
4. CONCLUSIONES
El componente polimérico mayoritario de los tres tipos de
tarjetas recolectadas es el policloruro de vinilo (PVC) rígido.
Se obtuvieron y caracterizaron dos productos diferentes a
partir de la recuperación del PVC de las tarjetas de
identificación desechadas.
Se encontró que las condiciones de centrifugación, 4000 rpm
durante 20 min, limitaban la separación de las cargas y el
PVC, ya que a pesar de realizar este proceso por tres ciclos,
en los materiales plastificados finales se encontró una cierta
cantidad de residuo correspondiente a las cargas.
Mediante el análisis termogravimétrico se determinó que el
DOP, en el sistema plastificado, presentará una sola etapa de
descomposición, mientras el DIBP presentará dos etapas
durante su descomposición.
Se determinó la compatibilidad entre dos plastificantes (DOP
o DIBP) y el PVC proveniente de tarjetas plásticas de
identificación. Se encontró una mayor compatibilidad para
los sistemas plastificados con DIBP.
Los sistemas previamente disueltos en THF o CH (producto
2) mostraron una mayor elongación a la rotura, con respecto
a los sistemas prensados (producto 1).
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados
_________________________________________________________________________________________________________________________
AGRADECIMIENTO
Agradecemos a la Escuela Politécnica Nacional, por el
financiamiento de la investigación, a través de los fondos del
Proyecto Semilla PIS 12-43.
REFERENCIAS
Blanco Álvarez, F. (2006). Propiedades Mecánicas. Rotura. Obtenido de:
http://www6.uniovi.es/usr/fblanco/TEMAII.2.7.PROPIEDADESMECANIC
AS.pdf. p.28. (Julio, 2015)
Blazevska-Gilev, J. y Spaseska, D. (2007). Chemical Recycling of Poly
(Vinyl Chloride): Alkaline Dechlorination in Organic Solvents and
Plasticizer Leaching in Caustic Solution. Journal of Chemical Technology
and Metallurgy, 7(1). Obtenido de: http://dl.uctm.edu/journal/node/j20071/04_Jadranka-29-34.pdf. pp.29-34. (Julio, 2015)
Centro de Estudios y Experimentación de Obras Públicas (CEDEX). (2013).
Residuos Plásticos. Obtenido de: http://www. cedexmateriales.
vsf.es/view/archivos/residuos/398.pdf. pp.5-6. (Febrero 2015)
Engineers India Research Institute (EIRI). (2012). Technology of PVC
Compounding and Its Applications. Nueva Delhi, India: EIRI. p.14.
González Horrillo, N. (2005). Espectroscopia Infrarroja de Transformada de
Fourier (FTIR) en el Estudio de Sistemas Basados en PVC. San Sebastián,
España: Universidad del País Vasco.
Plastics Europe. (2013). Plastics - The Facts 2013. Obtenido de:
http://www.plasticseurope.es/Document/plastics-the-facts-2013-inenglish.aspx?FolID=2. p.10. (Mayo, 2015)
Seymour, R. y Carraher, C. (2002). Introducción a la Química de los
Polímeros. Barcelona, España: Reverté. p.464.
Turi, E. (1997). Thermal Characterization of Polymeric Materials. San
Diego, Estados Unidos: Academic Press. p. 881.
Universidad Católica de Santiago de Guayaquil – UCSG. (2012). Informe de
Coyuntura
Económica.
Obtenido
de:
http://www.elfinanciero.
com/banca_especiales/tema_12_2012/banca_01_2012.pdf (Febrero, 2015)
UVA - Universidad de Valladolid. (2008). Propiedades Mecánicas de los
Polímeros.
Valladolid,
España.
Obtenido
de:
https://alojamientos.uva.es/guia_docente/uploads/2011/469/45757/1/Docume
nto6.pdf. p.35. (Febrero, 2015)
Wypych, G. (2012). Handbook of Plasticizers. Toronto, Canadá: ChemTec
Publishing. p. 200-204.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
52
Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater
_________________________________________________________________________________________________________________________
53
Mechanical and Electronic Systems of an Open Source Based Spin
and Dip Coater
Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2

1 Universidad
de las Fuerzas Armadas, Departamento de Ciencias de Energía y Mecánica, Sangolquí, Ecuador
2 Escuela Politécnica Nacional, Departamento de Materiales, Laboratorio de Nuevos Materiales, Quito, Ecuador
Abstract: The construction of an open source based spin and dip coater are presented. The mechanical systems and
its gear ratio are discussed, as well as the electronic system and control unit. The instruments were assembled using
low cost materials and share a common controller unit, which is programmed with an Arduino microcontroller. The
total velocity range of the instruments are 300 to 10000 rpm for the spin coater and 0.6 cm/h to 30cm/min for the dip
coater. The operation and use of the two instruments are discussed, which in both cases compare very favorably with
commercial models.
Keywords: Spin coater, dip coater, open source, Arduino, low cost instrumentation, surface deposition.
Sistemas Mecánico y Electrónico de un Spin Coater y Dip Coater
basado en Tecnología de Código Abierto
Resumen: Se presenta la construcción de un spin coater y dip coater basado en tecnología de código abierto. Se
detalla el sistema mecánico así como la relación de engranes implementados. También, se habla del sistema
electrónico así como el control de los equipos. Los instrumentos fueron ensamblados utilizando materiales de bajo
costo y comparten una unidad de control común la cual fue programada en un microcontrolador Arduino. El rango
de velocidad total de los instrumentos es de 300 a 10.000rpm para el spin coater y de 0,6cm/h a 30cm/min para el
dip coater. Se da una pequeña reseña del funcionamiento de los dos equipos y su utilidad. En ambos casos se comparan
de manera favorable con modelos comerciales.
Palabras clave: Spin coater, dip coater, Arduino, dnstrumentación de bajo coste, deposición superficial.
1
1. INTRODUCTION
A novel low cost method for the design and construction of
prototypes of a spin coater and dip coater are presented. Each
device is made of inexpensive and open source based
mechanical components, at a fraction of the commercial cost
and with operating parameters that compare very favourably
to the equivalent commercial models. Furthermore, the control
units of the spin coater and dip coater utilizes the same
Arduino based microcontrollers and are interchangeable,
needing only to be reprogrammed in order to be used in either
one of the two instruments.
Open source technology has become one of the most powerful
tools in order to design and build low-cost equipment.
Nowadays, there are many applications which use open source
technology like 3D printer, cell phone operating systems,
software apps, robots, low-cost laboratory equipment, as an
integral part of the manufacturing process. Fisher D. K et al.
(2012) – Herrera R. (2013).
This paper presents a method in which open source technology
has been utilized to build a spin and a dip coater. Besides the
obvious cost advantage of building your own scientific
equipment, another goal has been the opportunity to take
complete control of the all the variables involved in the process
of coating of the films.
Two of the most common methods by which to obtain thin
films by deposition from a solvent are spin coating and dip
coating. In spin coating a small amount of solution is
deposited onto the centre of a substrate which is subsequently
spun at high speeds. Spin coating is widely used in micro
fabrication, where it can be used to create thin films with
thicknesses below 10 nm. In spin coating the there are various
parameters that need to be taken into consideration. Among
them are the speed of spinning, the viscosity and concentration
of the solution, acceleration, spin time and exhaust. However,
the process parameters vary greatly for different materials and
substrates so there are no fixed rules for spin coat processing,
only general guidelines. Of critical importance is that the
process is reproducible. Factors that affect the coating process
[email protected].
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
54
Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2
_______________________________________________________________________________________________________________________________
include speed of spinning, acceleration, spin time, exhaust, the
viscosity and concentration of the solution, Hall D. B et al.
(1998). Another important factor in spin coating is
repeatability, as subtle variations in the parameters that define
a spin-coating process can result in drastic variations in the
coated film.
Dip coaters are designed to deposit layers of materials in a
controlled and repeatable way. Dip coating is used for the
fabrication of thin films by self-assembly. of controlled
thickness, determined mainly by the deposition speed and
solution viscosity There are, just as in spin coating, a variety
of factors to account for when determining the final state of the
thin film when dip coating a given substrate.
Among the factors, that affect the process are the submersion
time, withdrawal speed, number of dipping cycles, solution
composition,
concentration
and
temperature
and
environmental humidity. It works as a substrate is submerged
in a solution and then in a controlled and constant fashion
retracted from the solution, Puetz J. et al. (2004).
Dip coaters provide homogeneous and smooth films. The
thickness and internal layer structure of such films can be
adjusted by altering the concentration of the solution,
retracting speed and/or by having multiple dipping cycles.
Therefore, given their ease of use, spin and dip coaters are
amongst the most ubiquitously used instruments for the
fabrication of thin films in many laboratories. In both cases,
care should be taken to be able to deposit the thin films in such
a way as to achieve the desired characteristics regarding, film
thickness, homogeneity and reproducibility of the thin films.
Often commercial spin and dip coaters are prohibitively
expensive and may have features are not necessarily needed
for fabrication of thin films. To this end, there have been
several reports of the construction of either low cost spin
coaters or dip coaters in literature, Fardousi M. et al. (2014)Leal D. et al. (2011). Our design offers solution to this problem
by describing a low cost method with a flexible controller that
can be used to control either of the low instruments, Loza
Matovelle D. et al. (2014). An extensive description of the
mechanical structure and electronic control system is
presented for each of the two instruments.
2. RESULTS AND DISCUSSION
Figure 1. An expanded view of the 3D model of the spin coater.
Table 1. Nomenclature of the parts of the spin coater.
Part Nr.
Name
1
Base
2
Metallic support
3
Rivet
4
Electric motor
5
Support shaft
6
Electric motor support
7
Bolt
8
Motor shaft
9
Motor shaft guide
10
Superior rotating plate
11
Body protection
12
Superior protection
13
Fixed superior plate
Computer numerical control (CNC), “The fundamentals of
CNC” Apr. (1997), processes have been used to build the
mechanical components, such as plates and shafts; thus,
assuring quality and precision regarding the overall
functionality of the final setup. Because of the simplicity of the
rotating mechanism, composed of the electric motor, motor
shaft, and superior rotating plate, as shown in Figure 2, the
losses in power and speed of the rotating plate due to friction
can be neglected.
2.1 Construction of the spin coater
The three main components in the construction of the spin
coater were; the mechanical system, the electronic control
system and the user interface. The three main stages involved
in the construction of the mechanical system of the spin coater
were; the 3D prototyping, analysis of the mechanisms, and its
manufacturing. A 3D model, as shown in Figure 1 and Table
1, was built in order to assure functionality of the system. It
went through an iteration process since some adjustments had
to be performed on the 3D models until the final assembly was
completely developed.
Shaft
Electric Motor
Rotating
Plate
Figure 2. Schematic diagram of the rotating transmission mechanism.
As the electric motor is fixed to a support, and the forces
generated from the testing material along the axial direction
are considerably small, there is no presence of axial movement
that can affect the functionality of the setup. Additionally, to
prevent radial displacements, there is a metallic part that serves
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater
_________________________________________________________________________________________________________________________
as a guide and support of the motor shaft; thus, ensuring the
pure rotational movement which is indispensable for the
equipment functionality.
2.2 Construction of the dip coater
Similarly to the spin coater, the dip coater device consists of
three main parts; the mechanical system, the electronic control
system and the user interface. The mechanical part of the
system was designed in the same fashion as for the spin coater.
A 3D model, as shown in Figure 3 and Table 2, was developed
so that kinematics and functionality analysis were performed
towards an adequate performance of the dip coater setup.
55
and worm wheel gear, the second gearbox consist of spur gears
as does the third one. In order to get the vertical movement, a
rack and pinion mechanism has been implemented. All these
mechanisms are susceptible of power losses due to inherit
efficiency of each type of gear, sliding effect, friction, and
windage, Chaari F. et al. (2012). Most of the power losses are
dissipated in a form of heat and it is more evident when the
mechanism works at high rpms. Since the dip coater
mechanism work at relatively low speeds, the power losses
could be neglected. The estimation of the power losses as well
as the equations and conditions that govern these phenomena
are out of the scope of this paper.
To motion the system at different speed ranges, two DC
motors, two power sources of 5 and 24 V along with the
transmission system are available. The speed is controlled both
electronically and mechanically. A pinion-rack system
connected to the gearboxes enables the conversion of rotary
motion to linear motion. To achieve as wide a range of
velocities as possible the system was fitted with two
interchangeable wheels. The larger wheel has a radius eight
time the smaller wheel, meaning that the larger wheels will
result in eight times the velocity of the smaller wheel for any
given voltage, see Figure 4. As the system encompasses two
independent DC motors, this effectively results in four distinct
velocity ranges, see Figure 5. Furthermore, as both motors
make use of the same axis, the one that is not in use must be
manually disengaged before starting a new test to avoid
damage to the mechanical system.
Figure 3. An expanded view of the 3D model of the dip coater.
Table 2. Nomenclature of the parts of the dip coater.
Part Nr.
Name
Quantity
1
Rod
4
2
Base
1
3
Shaft
7
4
Electric motor
2
5
Gearbox I
1
6
Gearbox II
1
7
Gearbox III
1
8
Wheel
1
9
Rack gear
1
10
Removable plate
1
11
Bolt
4
Figure 4. Sketch of the side by side view of the two wheels used for the dip
coater. The smaller wheel has a radius eight times smaller than the larger
wheel, meaning that for any given voltage its dipping speed would be eight
times slower.
As the transmission system of the dip coater mechanism is
more complex than that of the sin coater, it is essential to
ensure the accuracy on the built parts as well as good quality
off-the-shelf parts, such as gearbox, to guarantee the
performance of the results obtained with this setup. This
means that the settings of the gearboxes, motors, and rack and
wheel mechanisms should be secured to avoid vibrations
which otherwise could be transmitted to the sample and cause
defects such as jumps and holdups during the experiments. The
mechanical system must also be very robust, and assembled on
a totally flat surface. To this end, the base of the system was
fitted with a protective layer of thick rubber.
The most salient feature of the transmission system is its three
compound gear combinations. The first train contains a worm
Figure 5. Sketch of the top view of the mechanical structure of the di coater
with two independent DC motors.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2
56
_______________________________________________________________________________________________________________________________
2.3 Transmission train of the dip coater
Given the fact that rotational movement has to be translated to
linear displacement, a mechanism of three gear boxes is
assembled. The gear transmission system is composed by three
gear boxes with different gear ratio each, as shown in Figure
6, in order to get the final linear velocity on the rack. To
determine the gear-ratio of each gear box is important to get
the teeth number of each gear as it is presented in Table 3.
Table 3. Teeth number distribution of the gears of the transmission train.
Part Nr.
Number of teeth
N1
1
M1
DC Motor
N2
42
N3
12
N4
42
M2
DC Motor
N5
8
N6
34
N7
12
N8
34
N9
12
N10
36
N11
12
N12
36
N13
12
N14
36
N15
12
N16
36
N17
8
N18
34
N19
12
N20
36
N21
78
N22
88
N23
12
Two motors can be engaged to get the desired rack linear
velocity. If M1 (see Figure 5) is utilized, the rack velocity is
computed by using the relation from multiplying I1, I2, and I3.
If M2 is engaged, the output velocity is then calculated by
using the result of multiplying I2 and I3.
Two pinions are available to control the linear velocity. The
radio of the biggest gear is eight times larger than the radio of
the small one. The linear velocity can be computed as in
Equation (1).
Vsal  sal  R
(1)
Where, Vsal is the linear velocity of the rack, ωsal is the angular
velocity of the pinion (N21 or N23), and R is the radio of the
pinion (N21 or N23). The transmission system is designed is
such a way that the total range of velocity varies from 0.6 cm/h
to 30 cm/min. Although some inherit losses of the gearboxes
can derivate in variations that can affect the final linear speed,
this effect can be compensated by the speed controller
developed in this study.
2.4 Electronic system of the spin and dip coater
A great advantage of the designed systems is the use of one
single control unit. A schematic view is presented in Figure 6.
Figure 6. Schematic overview of the electronic system of the spin and dip
coater.
The electronic components of the spin and dip coaters are is
based on open-source Arduino platform. A UNO board is used
to control the Dip and Spin coater because of machine
requirements as well as for ease of handling. In order to enter
and show both speed and operating-time variables an
embedded Arduino shield that has a keyboard and a liquid
crystal display was implemented. Entered variables are sent to
the main program into the Arduino board, which uses pulsewidth-modulated signal to control the motor. However, the
control board sends a low-level-current signal, which cannot
be connected directly to the motor. This is the main reason why
a L298N H-bridge shield is added to the electronic component.
The shield amplifies the Arduino UNO signal so that the motor
can spin. Furthermore, the dip coater mechanical design
involves two motors with slow and high revolution models.
The first motor works with 24 volts and the second with 5
volts, which means that the H-bridge shield requires two
power sources and a commutable switch to avoid short
circuits. Besides, two hand switches are used to turn on/off
DIP coater controller and motors.
2.5 Control system of the spin and dip coater
The control system of both the spin and dip coater have been
developed with Arduino UNO, Arduino Uno (2015). The
purpose of the control system is to drive the device. Its main
component is an Arduino UNO free microcontroller. It is able
to receive data from the user interface, process the data and to
send it to the DC motor. The microcontroller drives the device
by using an open-loop control algorithm in order to regulate
the speeding spin. The control system is responsible for
maintaining constant speeds and spin duration according to
user selection. The rotational movement of the spin coater is
provided by a single 12W DC electric motor. The speed of the
motor is controlled by varying the voltage according to the
pulse width modulation technique (PWM). The Arduino UNO
sends bits between 0 and 255 to control the motor. The process
begins with a start signal. After that, speed and operation time
must be entered. The input variables of Arduino Uno are
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater
_________________________________________________________________________________________________________________________
reflected in PWM signals that permit to control motor duty
cycle. Speed variations of the spin coater were conditioned to
be between 300 and 10000 rpm for up to three minutes.
Similarly, for the dip coater, the connection between the
microcontroller and the Arduino DC motor is achieved by a
L298N shield to control the two motors, and both the speed
and direction of the rotation. A complete diagram of the
mechanical and electronic components is shown in Figure 7.
For both systems a KeyPad and LCD was employed which
provides a graphical and simple to use controlling device. A
complete diagram of the mechanical and electronic
components is shown in Figure 7.
57
The purpose of this is to dispense the fluid on top of the
substrate and to spread the fluid over the substrate. This is
followed by an instantaneous switch in velocity up to
anywhere from 1000 to 10000 rpm. The purpose of this high
speed spin step is to thin the fluid, to eliminate excess solvents
from the resulting film by drying it.
The dip coater system allows the deposition of thin films at
speeds ranging between 0,6 cm/h and 30 cm/min with an error
of ±2 % due to voltage variation of the mains network. The
electronic control system and user interface are basically
identical to that of the spin coater, with the added option to
change the direction of the rotation. This is due to the fact that
often different speeds are required for approaching (lowering)
and retraction (lifting) of the sample. Before each experiment
the user selects the approaching and retracting speeds
independently with push button switches.
2.4 Mechanical maintenance
The amount of time that the system is retracting can also be
set. However the system is designed such that the approach
takes place by keeping the approach button pressed in. This
facilitates the entry of the sample probe into the solution, as it
offer a higher degree of control to terminate the approach at
exactly the desired point, which is usually just beneath the
solution level, when the sample is totally immersed into the
solution. It is also a practical measure as approaching speeds
are generally much higher than retraction speeds.
Performing maintenance to the testing equipment is very
import to ensure accurate, reliable, and timely testing. Also,
authorized personnel should do the tests to guarantee the
correct operation of the equipment (spin and dip coater) as it
is stated in the 5.5.3 item of the ISO/IEC 17025(2005) (E)
The retraction speed is considered considerably more critical
as it must be very uniform and constant. To this end the user
can select the time it could take for the sample to withdraw
from the solution. The available options range from minutes to
hours, even for samples as small 1x1 cm2.
Activities such as cleaning and lubrication are implemented
periodically for the equipment. This is based on a preventive
maintenance plan developed by the manufacturing processes
laboratory, under which the new equipment is operating. Since
the majority of the equipment is constructed from steel,
lubrication has to be added carefully to prevent it from
corrosion. The equipment shall not be exposed to high
temperatures (above 210 °F), Chaari F. et al. (2012), because
the acrylic and plastic gear-boxes (for the dip coater) could
deform or melt easily, then affecting the performance and
results of the tests
3. CONCLUSIONS
Figure 7. An overview of the mechanical and electronic components used.
2.4 Operation of the spin and dip coater
In the case of the spin coater, the substrate is mounted on the
spinning plate of the spin coater using a double-side tape. . The
system allows depositing thin films of any dissolved materials
at rotational speeds between 300 and 10000 rpm with an error
of ± 1 % rpm. The magnitude of variation of the spin velocity
is constant and attributed to the fluctuations of the mains
voltage which feeds the Arduino. It is comparable to many
commercial models and does not impede the reproducibility of
the obtained thin film. Typically for spin coating the user
selects two velocities for each deposition. A low velocity of
500 rpm is initially chosen for about three seconds.
The mechanical and electronic systems of an open source
based, low cost, spin and dip coater have been presented and
discussed. The presented models provide a proven method to
manufacture high quality scientific instruments for thin film
deposition by using readily available mechanical parts and
open source software. The instruments are easy to use and
program. A description of their mechanical maintenance is
also given. The mechanical properties of the spin coater (speed
range from 500 to 10,000 rpm) and dip coater (withdrawing
speed range: from 0,6 cm/h to 30 cm/min) compare favorably
with commercial models. The presented models will allow
research groups the possibility to prepare thin films with an
accuracy that was previously out of reach due to the
prohibitive costs that until very recently were associated with
such instruments.
ACKNOWLEDGMENTS
This work was supported by the Prometeo Project of the
Ministry of Higher Education, Science, Technology and
Innovation of the Republic of Ecuador (SENESCYT).
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2
_______________________________________________________________________________________________________________________________
REFERENCES
Arduino
Uno
(2015),
available
https://www.arduino.cc/en/Main/arduinoBoardUno
at ;
Chaari F., Romdhane M. B., Baccar W., Fakhfakh T. and Haddar M. (2012),
Trans. Appl Theoretical Mechanics , 2, pp7-11.
El-Yamny S. and Abdel-Rafea M., Mod J. (2012). Phys. 3, pp1060-1069.
Fardousi M., Hossain M. F., Islam M. S., and Ruslan S. R., Mod J. (2014). Sci.
Technol. 1, pp126-134.
Fisher D. K. and Gould P. J. (2012), Mod. Instrum. 1, pp8-20.
Gómez-Aguilar R. and Ortiz-López J. (2011), Lat. Am. J. Phys. Educ. 5,
pp368-373.
Hall D. B., Underhill P., and Torkelson J. M. (1998), Polym. Eng. Sci.,38, pp
2039-2045.
Herrera R. (2013), “Herramientas de Software Libre para Aplicaciones en
Ciencias e Ingeniería”, Rev. Politécnica, 32, pp. 2-8.
ISO/IEC 17025 (2005), General Requirements for the competence of testing
and calibration laboratories.
Leal D., García L., Moronta1 D. and Mantilla J. (2011), Rev. Fac. Ing.
U.C.V., 26, 1, pp. 143–148.
Loza Matovelle D., Guerrero V. H. and Dabirian R. (2014), Momento, 49,
13-18.
Pearce J. M. (2012), Science 337, pp1303-1304.
Puetz J. and Aegerter M. (2004), “ Sol-Gel Technologies for GlassProducers
and Users”, Springer US, pp. 37-48.
“The
fundamentals
of
CNC”
Apr.
(1997),
available
at
:http://www.mmsonline.com/articles/key-cnc-concept-1the-fundamentals-ofcnc
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
58
Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos
_________________________________________________________________________________________________________________________
59
Diseño del Sistema de Freno Regenerativo de Automóviles
Híbridos
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1

1Escuela Politécnica Nacional, Facultad de Ingeniería Mecánica, Quito, Ecuador
Resumen: El trabajo aquí presentado consiste en el diseño del sistema de frenado regenerativo presente en los coches
híbridos y eléctricos. Se parte de los conceptos fundamentales que son la base para una comprensión global del
proceso de regeneración de energía. Así mismo, se analiza los elementos del sistema y la forma en la que influyen
directamente en la generación de energía. También se presenta una clasificación general de las diferentes
configuraciones de los autos híbridos, que modifican el proceso de frenado regenerativo. El requisito específico que
da lugar al desarrollo del proyecto es dar a conocer el uso de las energías alternativas que son comúnmente
desperdicio, pero que con el avance de la tecnología se puede aprovechar para la reutilización y la aplicación en
diferentes procesos.
Palabras clave: Frenos Regenerativos, Autos Híbridos, Energía Eléctrica, Sistema de Frenado.
Design of the Regenerative Braking System for Hybrid Cars
Abstract: This work presents the design of the regenerative braking system in hybrid and electric cars. It is important
to know the fundamental concepts that are the basis for a complete understanding of process of energy regeneration.
Likewise, the system components and how they are directly affect power generation, is analyzed. A general
classification of different configurations of hybrid cars, which ones modify the regenerative braking process, is also
presented. The specific requirement that leads to the development of the project is to introduce the use of alternative
energies that are commonly wasted, but with the advancement of technology can be leveraged for reuse and use in
different processes.
Keywords: Regenerative Braking, Hybrid Cars, Electric Power, Braking System.
11. INTRODUCCIÓN
Actualmente la demanda energética a nivel mundial por parte
de la sociedad y el creciente número de vehículos provocan un
notable aumento en la contaminación ambiental, por ello es
necesario regular y utilizar la energía disponible de forma
eficiente. El avance tecnológico permitió la creación de
vehículos híbridos que combinan un motor de combustión
interna y un motor accionado por energía eléctrica, que en
consecuencia reducen significativamente la emisión de gases
tóxicos y el consumo de energía. En el sistema de frenos
regenerativos se tiene como finalidad principal, almacenar la
energía que se pierde en forma de calor durante el frenado en
vehículos a combustión interna o estándar, y poder utilizar
gran parte de esta energía en otro instante cuando el vehículo
lo requiera, ya sea para el propio desplazamiento o para el
consumo en otros aparatos del automóvil hibrido.
Ambos, requieren diferentes tipos de energía. El motor de
combustión interna consume combustible, y el motor eléctrico
requiere de energía eléctrica.
2.1 Motor de Combustión Interna
Un motor de combustión interna funciona en base al consumo
y quemado de una mezcla comprimida en distintas relaciones
de aire y combustible, el proceso se lleva a cabo dentro de un
cilindro o cámara de combustión que permite incrementar la
presión interna y generar con ello la suficiente potencia hacia
el pistón (Biblioteca Virtual). A continuación la Figura 1.
De acuerdo a la mezcla aire combustible y la relación que
presenten estos dentro de la cámara del cilindro se pueden
diferenciar 4 tiempos en un motor de combustión interna los
cuales son: Admisión, Compresión, Combustión, Escape.
2. SISTEMA DE FRENO REGENERATIVO
Un sistema de frenos regenerativos se usa en vehículos
híbridos los cuales combinan dos tipos de motores: un motor
de combustión interna y un motor eléctrico.
[email protected]
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
60
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1
_______________________________________________________________________________________________________________________________
provocando una explosión y un rápido desplazamiento del
pistón en sentido descendente como se observa en la Figura 4.
Figura 4. Etapa de Combustión (Motores Térmicos)
Figura 1. Motor de Combustión Interna (El Rincón de la Tecnología)
Admisión: En la etapa inicial de este tiempo el pistón se
encuentra en movimiento descendente a través del cilindro
mientras la válvula de admisión inicia su apertura;
Paralelamente la válvula de escape se cierra, de modo tal que
únicamente existe el ingreso de la mezcla de aire-combustible;
como se observa en la Figura 2.
Escape: Una vez que el pistón se encuentra en el PMI, se abre
únicamente la válvula de escape, mientras el pistón inicia
nuevamente su movimiento ascendente para luego permitir el
desplazamiento de los gases generados durante la combustión,
logrando que estos salgan directamente por el tubo de escape
y por consiguiente a la atmosfera como se observa en la Figura
5.
Figura 5. Etapa de Escape (Motores Térmicos)
2.2 Motor Eléctrico
Figura 2. Etapa de Admisión (Motores Térmicos)
Compresión: En la Figura 3 se observa que en este tiempo las
válvulas de admisión y escape están completamente cerradas,
el pistón que se encuentra en el PMI inicia su movimiento
ascendente comprimiendo la mezcla aire-combustible del
tiempo anterior, logrando cada vez un espacio más pequeño,
hasta que llega a su volumen mínimo en el PMS.
Figura 3. Etapa de Compresión (Motores Térmicos)
Combustión: Cuando el pistón del cilindro llega al PMS y la
mezcla aire-combustible ha alcanzado su máxima compresión,
se genera una chispa para el encendido de la mezcla
Un motor eléctrico es una máquina eléctrica rotatoria que
transforma la energía eléctrica en energía mecánica mediante
un proceso electromagnético. Ofrece múltiples ventajas en
relación al motor de combustión interna, como es la mayor
eficiencia, limpieza de las partes, comodidad debido al
tamaño, además de la seguridad de funcionamiento.
El funcionamiento del motor se basa en la interacción entre
campos magnéticos y corrientes eléctricas circulantes en una
determinada dirección que dan como resultado un par o torque
respecto un eje de giro, como se observa en la Figura 6.
Donde se muestra como circula una corriente eléctrica, es por
un material conductor que se encuentra dentro de la acción de
un campo magnético. Al colocar una espira dentro de un
campo magnético en el que fluya una determinada intensidad
de corriente, el campo ejercerá una fuerza tangencial a la espira
dando lugar a un momento de fuerzas, produciendo una
rotación y dicho movimiento será el producto de las
interacciones electromagnéticas de donde la energía inicial
eléctrica será transformada a energía mecánica de rotación
aprovechable para otra aplicación.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos
_________________________________________________________________________________________________________________________
61
El principio de funcionamiento de una batería eléctrica está
basado esencialmente en un proceso químico reversible
llamado reducción-oxidación (redox). Un proceso en el cual
uno de los componentes se oxida, es decir pierde electrones y
el otro componente se reduce o gana electrones de tal forma
que ambos no resultan consumidos sino únicamente cambian
estados de oxidación y dependiendo las circunstancias
externas, vuelven a su estado original, como por ejemplo el
cierre del circuito eléctrico o la aplicación de una corriente
externa.
Figura 6. Campo de fuerzas magnéticas (Motor eléctrico)
2.3 Generador
Al contrario de un motor eléctrico que requiere de energía
eléctrica para operar, el generador por intermedio de un
movimiento rotario produce energía eléctrica, es decir
convierte la energía mecánica inicial en corriente eléctrica
susceptible de alimentar a una gran variedad de aparatos. Esto
sigue el principio de la ley de inducción electromagnética,
donde al tomar en cuenta el giro de una espira dentro de un
campo magnético se producirá una variación del flujo
magnético de la espira a través del campo, generando una
corriente eléctrica.
La fuerza electromotriz (f.e.m.) inducida depende del ritmo de
cambio del flujo, sin importar el número de líneas de campo
atravesando el circuito, sino su variación por unidad de
tiempo. Se produce debido al movimiento relativo de los
conductores sobre el estator dentro de un campo magnético.
2.3 Inversor
Un inversor transforma la electricidad de corriente continua
(C.C) almacenada en baterías eléctricas en energía de corriente
alterna (C.A) y de igual forma en sentido opuesto de C.A a
C.C.
Los inversores eléctricos disponen de funciones para iniciar y
finalizar la actuación de los generadores automáticamente. Es
por esto que su aplicación en el sistema de freno regenerativo
es necesaria, además, la capacidad del inversor para procesar
distintas formas de energía de entrada, lo convierte en una
opción necesaria en aplicaciones de energía portátil, de
respaldo y sin conexión directa a la red como en vehículos
híbridos y eléctricos.
2.4 Baterías Eléctricas
Las baterías eléctricas son dispositivos que tienen la capacidad
de almacenar electricidad en forma de energía química para
posteriormente mediante procesos electroquímicos producir
energía eléctrica. La gran utilidad de estos dispositivos es que
permiten repetir dicho proceso un determinado número de
veces.
Un circuito eléctrico cerrado inicia una reacción
electroquímica de reducción oxidación entre los electrodos,
donde cada electrolito reacciona con un químico o elemento
especial. En el ánodo, una reacción de oxidación provoca una
transferencia de electrones desde una sustancia o compuesto
hacia otra, formando un compuesto ionizado negativamente,
es decir con exceso de electrones, para el cátodo en cambio el
electrolito y el agente químico forman una reacción de
reducción, es decir cuando un reactivo químico acepta
electrones.
2.5 Configuraciones del Vehículo Hibrido
Los distintos tipos de vehículos híbridos basan su diferencia
en la posición y configuración de sus elementos en cómo están
relacionados y la interacción entre ellos permiten mejorar la
autonomía del automóvil, dependiendo del tipo de
configuración dada, el sistema de frenos regenerativos tendrá
una mayor o menor utilidad.
El factor determinante para un adecuado diseño es el sistema
completo de transmisión ya que este permite en un primer caso
transferir independientemente la potencia del motor de
combustión interna o del motor eléctrico hacia las ruedas
motrices y en un segundo caso transmitir conjuntamente la
potencia generada por ambos motores, estos elementos de
transmisión están sometidos a esfuerzos constantes de torsión
y flexión.
En el caso de transmisión de potencia únicamente por el motor
de combustión interna, esta empieza en el volante de inercia
conectado al embrague, seguido por el acople a la caja de
cambios y terminando en el árbol de transmisión que otorga el
movimiento final a las ruedas del vehículo. Para el caso de la
transmisión de potencia a través del motor eléctrico el
seguimiento es similar donde se mejoran los procesos de
transmisión de movimiento (caja de cambios) debido a que las
revoluciones entregadas por este último son mucho más
exactas y precisas.
Al disponer de un motor delantero con tracción delantera o con
un motor trasero de tracción trasera no es necesario el árbol de
transmisión ya que el par generado por cada motor es
transmitido directamente a través de ejes más cortos.
2.6 Híbrido Conectado en Serie
En un vehículo hibrido al estar conectado en serie el motor de
combustión interna proporciona únicamente el movimiento de
rotación hacia un generador eléctrico, donde esta carga
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
62
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1
_______________________________________________________________________________________________________________________________
directamente las baterías del vehículo si se encuentran
descargadas, o a su vez transmite una mayor potencia hacia el
motor eléctrico dependiendo del requerimiento energético del
vehículo. El generador se utiliza principalmente para extender
autonomía del automóvil permitiendo ampliar las prestaciones
de este, de tal forma que en la mayoría de los kilómetros se
utiliza la energía proveniente de las baterías y en el caso que
el viaje exceda las prestaciones de la batería o su capacidad el
generador eléctrico se enciende. La corriente producida por el
generador es rectificada en el inversor/cargador.
Dependiendo de varios factores como la capacidad de
almacenamiento de las baterías, el espacio disponible en el
vehículo, la velocidad o la cantidad de energía disponible se
dimensionan equipos generadores de mayor o menor tamaño.
La batería se dimensiona en función de los picos de demanda,
de tal forma que a altas velocidades solo una parte de la energía
eléctrica proviene de las baterías siendo estas las que
suministran la potencia necesaria para aceleraciones y
adelantamientos, en cambio a velocidades crucero la potencia
generada en exceso es utilizada para recargar las baterías.
En la Figura 7 se puede observar el flujo energético de cada
elemento del vehículo hibrido, durante el frenado regenerativo
la propia inercia del vehículo rota el sistema de propulsión o
eje de transmisión que produce una energía mecánica
directamente sobre el motor eléctrico (que en un inicio
otorgaba el movimiento al eje) logrando que de esta forma
opere como un segundo generador eléctrico cuya energía es
recargada y almacenada inmediatamente en las baterías.
utilizados independientemente o simultáneamente si se desea
una mayor potencia en el vehículo. Estos 2 sistemas proveen
la potencia necesaria a las ruedas y si bien esta configuración
es más compleja resulta ser más eficiente debido a que se
minimizan las perdidas por conversión de cada tipo de energía.
Además, como el aumento de potencia le corresponde
directamente al motor de combustión interna es posible la
reducción del tamaño de las baterías, el motor a gasolina entra
en funcionamiento cuando existe una mayor demanda de
energía por parte del vehículo, y al detenerse el vehículo
híbrido aprovecha la energía normalmente empleada en frenar
para recargar su propia batería.
Dentro de los vehículos híbridos paralelos se pueden distinguir
dos tipos: los que emplean un generador independiente para
cargar las baterías y los que aprovechan el motor eléctrico para
funcionar también como generador, este último será el
encargado del freno regenerativo permitiendo la
desaceleración del vehículo y logrando recuperar energía
mientras el motor eléctrico actúe como generador.
Un generador independiente en el vehículo híbrido produce
notablemente un aumento en la generación de energía
eléctrica, sin embargo, no resulta ser la decisión más adecuada
ya que conlleva al transporte de elementos más pesados en el
automóvil requiriendo a su vez mayor potencia y volviéndolo
más costoso. La ventaja de utilizar dicho generador
independiente es que al estar diseñado para funcionar
únicamente como generador será más eficiente frente a un
motor eléctrico que opere paralelamente como generador. Es
por ello que se debe realizar un análisis entre peso/beneficio al
momento de integrar más elementos al vehículo, ver Figura 8.
Al decidir acoplar un generador independiente dentro de la
misma configuración hibrida paralela se la clasifica como
vehículo hibrido paralelo-serie siendo esta configuración la
más utilizada por fabricantes de automóviles como por
ejemplo Toyota en su modelo Prius (Página oficial de Toyota).
Figura 7. Disposición de Elementos en vehículo Hibrido Serie
Figura 8. Configuración de vehículo Hibrido en Paralelo (Aficionados a la
mecánica)
2.7 Híbrido Conectado en Paralelo
2.8 Freno Regenerativo
En este tipo de configuración el vehículo utiliza dos sistemas
de tracción en paralelo de tal forma que estos pueden ser
El funcionamiento del sistema de freno regenerativo se da
desde el motor de combustión interna del vehículo, una vez
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos
_________________________________________________________________________________________________________________________
que el combustible ingresa al motor térmico en este se
producen transformaciones de energía el cual desarrolla la
potencia necesaria para permitir el movimiento lineal de los
pistones hacia el cigüeñal, seguido de ello existe un
movimiento rotatorio el cual se lo aprecia directamente en el
volante de inercia o cigüeñal.
Una vez obtenido el movimiento en el volante de inercia es
necesario aumentar o disminuir esta potencia generada a través
de diferentes sistemas de transmisión, los cuales por medio de
caja de cambios y diferentes configuraciones de engranajes
permitirán el desplazamiento del vehículo en las variadas
exigencias de la carretera. Paralelamente en este punto existe
el sistema de embrague que es el encargado de conectar o
desconectar este movimiento rotatorio final a las ruedas del
automóvil.
63
3.2 Motor de Combustión Interna
Permite generar la suficiente potencia para el desplazamiento
del vehículo o bien dependiendo de la configuración que se
tenga en el automóvil. Esta proporciona el movimiento motriz
que será parte del generador eléctrico en una siguiente etapa,
estos pueden clasificarse de acuerdo a la disposición de sus
cilindros como: motores en línea, motores en V, y motores de
cilindros opuestos (Bóxer).
Dependiendo de la configuración de cada uno de ellos se verá
reflejado en el rendimiento del automóvil. Se debe señalar que
si bien existe una gran variedad de motores de combustión
interna los más utilizados y escogidos en el empleo del sistema
de frenos regenerativos son los mencionados.
3.3 Motor Generador Eléctrico
Hasta este punto la similitud con un automóvil estándar es la
misma sin embargo como automóvil híbrido existe el motor
eléctrico que es responsable de igual manera del
desplazamiento del vehículo entregando una potencia mucho
más precisa sobre todo en condiciones de baja exigencia, se
debe señalar la idea fundamental del vehículo híbrido es su
desplazamiento por medio del motor eléctrico y cuando las
exigencias del automóvil aumentan. Paralelamente el motor de
combustión complementa la falta de potencia, logrando un
mayor torque en las ruedas.
El motor eléctrico es el encargado de suministrar la potencia
necesaria al sistema de engranajes o caja de cambios que
logran administrar de manera eficiente el par necesario a las
ruedas motrices del automóvil, se pueden clasificar de acuerdo
al tipo de corriente utilizada como motores de corriente alterna
(motores de jaula de ardilla), motores de corriente continua
(motores sin escobillas, los servomotores y los motores paso a
paso) y motores universales (funciona como motor de
corriente continua o como motor de corriente alterna).
Si el automóvil se desplaza a bajas velocidades sin mayor
exigencia para el motor eléctrico es posible que únicamente
este desarrolle la energía necesaria para el desplazamiento.
Cuando el vehículo únicamente se desplaza por la carretera
como producto de la inercia que conlleva es posible controlar
y permitir que el motor eléctrico invierta su operación y actué
como generador eléctrico logrando así, por medio del
movimiento rotativo existente la regeneración de energía
eléctrica, la cual es almacenada en las baterías del vehículo.
El generador eléctrico es el encargado de transformar la
energía proveniente en forma mecánica del motor de
combustión interna a energía eléctrica administrable por el
motor eléctrico, estos pueden ser electromecánicos. Se debe
señalar que existen en el sistema de freno regenerativo otros
tipos de generadores como electroquímicos, los cuales son
básicamente pilas o baterías recargables de acumuladores,
basados en fenómenos electroquímicos y generadores
fotovoltaicos correspondientes a los paneles fotovoltaicos.
Es posible regenerar energía que normalmente se pierde al
frenar el vehículo y se manifiesta en forma de calor en el
instante cuando se presiona el pedal del freno, en este punto en
un vehículo híbrido el motor eléctrico invierte su polaridad
iniciando su operación como generador.
3.4 Inversor y Baterías
Si bien la energía recuperada será menor, al magnificar este
método se visualiza un aumento considerable en la energía
disponible de las baterías, logrando una mayor eficiencia total
del sistema. Con la energía eléctrica recuperada y almacenada
en las baterías es posible utilizarla como fuente propia de
desplazamiento en el vehículo.
3. ANÁLISIS DE ALTERNATIVAS
3.1 Sistemas Necesarios
El sistema de frenos regenerativos está compuesto de varios
elementos que permiten desarrollar correctamente el proceso
de regeneración y almacenamiento de la energía, los más
importantes son el motor de combustión interna,
motor/generador eléctrico, inversor, baterías y la transmisión.
Encargado de convertir el voltaje en la entrada, de corriente
continua proveniente de las baterías del vehículo a corriente
alterna apta para el motor eléctrico de acuerdo a la magnitud y
frecuencia deseadas del sistema. Las baterías serán las
encargadas de almacenar la energía eléctrica generada
previamente.
3.5 Transmisión
Se entiende como transmisión a los equipos y elementos que
permiten el acople y las conexiones entre los demás
subsistemas como pueden ser engranes rectos, engranes
helicoidales, conexiones por cadena incluyendo acoples
mediante engranes epicicloidales, estos elementos requieren
de un gran análisis a fin de permitir la correcta transmisión del
movimiento, disminuyendo pérdidas por efectos de calor o
rozamiento, evitando sobrecargas como producto de
aceleraciones o frenadas repentinas en el vehículo.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
64
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1
_______________________________________________________________________________________________________________________________
3.6 Método de Evaluación
El método de evaluación a utilizar será el descrito por el Dr.
Carles Riba en su libro Diseño Concurrente [9], el cual se basa
en los criterios ponderados, permite decidir entre diversas o
varias soluciones donde únicamente basta conocer el orden de
preferencia en la etapa de diseño conceptual, es por ello que se
recomienda el método ordinal corregido de criterios
ponderados que sin la necesidad de evaluar los parámetros de
cada propiedad y sin tener que estimar numéricamente el peso
de cada criterio, permite obtener resultados globales
suficientemente significativos.
fabricación y/o adquisición de elementos, así como, accesorios
o materia prima que permiten el desarrollo del sistema de
frenos regenerativos.
3.9 Funcionalidad
Este criterio de valoración es determinante en el desarrollo del
sistema de frenos regenerativos ya que permite establecer la
relación entre la facilidad y rapidez con que el sistema puede
adaptarse a una determinada operación, la cual es de regenerar
la energía.
3.10 Facilidad de operación
Este método se basa en la formulación de tablas donde cada
criterio o solución, se confronta con los restantes criterios o
soluciones y se asignan los siguientes valores: 1 (Uno) Si el
criterio o solución de las filas es superior o mejor que el de las
columnas; 0,5 Si el criterio o solución de las filas es
equivalente o igual al de las columnas; 0 Si el criterio o
solución de las filas es inferior o peor que el de las columnas.
Este criterio de valoración implica directamente el trabajo de
cada elemento presente en el sistema de frenos regenerativos,
es decir, la facilidad con que estos elementos interactúan,
evitando componentes mucho más complejos que incrementan
el costo o dificultan la operación del sistema.
3.11 Peso
En cada criterio o solución, se deberán sumar los valores
asignados en relación a los restantes criterios al que se le añade
una unidad (1) para evitar que el criterio o solución menos
favorable tenga una valoración nula; después, en otra columna
se calculan los valores ponderados para cada criterio o
solución. La evaluación total para cada solución resulta de la
suma de productos de los pesos específicos de cada solución
por el peso específico del respectivo criterio.
3.7 Criterios de Evaluación
Los criterios de evaluación se basan en las principales
características al momento de comparar vehículos híbridos
versus vehículos estándar que no permiten el empleo del freno
regenerativo, en este aspecto priman detalles sobresalientes
como el costo de cada elemento individual, la funcionalidad de
cada equipo permitiendo que cada elemento opere
eficientemente con un gasto mínimo de energía, así como la
fácil operación de cada uno de ellos sin recurrir a sistemas
complejos para su funcionamiento, el peso para cada elemento
representa una característica primordial en cuanto a
optimización del vehículo híbrido, el tiempo de mantenimiento
requerido en cada elemento o equipo es un factor clave para la
elección de cada subsistema gracias a que permite una mayor
acogida por parte del usuario, se debe mencionar que criterios
tales como seguridad de los elementos involucrados y
fiabilidad son tomados en cuenta en cada aspecto a evaluar
debido a que son criterios netamente inherentes en todo
proceso de diseño mecánico.
3.8 Costo
El costo total de los elementos que conforman el sistema de
freno regenerativo es uno de los aspectos más importantes a
tener en cuenta en el diseño mecánico debido que este debe
representar un beneficio para el usuario al compararlo con
automóviles estándar, por esta razón se deberá buscar un
equilibrio entre el costo y la calidad final del diseño
permitiendo flexibilizar la eficiencia de la máquina. Se debe
mencionar que el costo señalado hace referencia al costo de
Este criterio de valoración es determinante en la eficiencia
final para el vehículo hibrido, debido a que será necesario el
menor peso posible en la maquinaria a fin de conseguir las
mejores prestaciones por el automotor sin necesidad de pesos
agregados por complejidades del sistema.
3.12 Mantenimiento
Como en todo sistema ya sea eléctrico o mecánico, es
necesario siempre un correcto y adecuado mantenimiento
acorde a las exigencias de operación de los elementos
relacionados con el sistema de freno regenerativo, de tal forma
que con un mantenimiento a tiempo y un adecuado acceso a
los componentes que requieren de revisión es posible la
detección y corrección de piezas mecánicas o eléctricas con
mayor tendencia a fallas, tales como desgaste y corrosión.
A su vez estos elementos que conforman el sistema de freno
regenerativo dependen de que los parámetros de causas de
fallas sean mantenidos dentro de los límites aceptables, por
ello este criterio de valoración es importante a fin de conseguir
los mejores resultados de la máquina en todo momento.
3.13 Alternativa de Diseño Seleccionada
De acuerdo a los resultados obtenidos de cada sistema del
freno regenerativo, el diseño estará configurado como
vehículo hibrido en serie y constituido conforme los elementos
señalados de Motor de combustión interna en línea 4 cilindros
DOHC, Motor / Generador Sincrónico de Corriente Alterna,
Inversor con baterías de Ion-Litio y Grupos reductores
conformados por engranes helicoidales.
3.14 Descripción General del Sistema de Freno Regenerativo
Una vez seleccionados cada uno de los elementos que forman
parte del sistema del freno regenerativo, se plantean las
características, funcionamiento y ubicación de los mismos
dentro del vehículo hibrido.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos
_________________________________________________________________________________________________________________________
65
Primeramente, el vehículo híbrido de configuración en serie
pone en evidencia de acuerdo a las valoraciones previas que
resulta ser el más eficiente, en comparación con las demás
configuraciones hibridas. Sin embargo, este resultado no
pretende desmerecer las demás clasificaciones debido a que
cada uno tiene sus propios requerimientos funcionales y para
el sistema a diseñar propuesto la mejor alternativa radica en la
utilización mayoritaria de la corriente eléctrica.
El motor de combustión interna seleccionado es de 4 tiempos
en línea con DOHC (doble árbol de levas), este sistema será el
encargado de suministrar la suficiente energía única y
exclusivamente al primer generador eléctrico.
El generador seleccionado es sincrónico de corriente alterna.
La energía eléctrica producida por este elemento será
almacenada en baterías NIMH (baterías de níquel-metal
hidruro) o de Ion Litio según sea el caso como en el automóvil
Toyota Prius [5]. Sin embargo, para que se desarrolle este
proceso es necesario la incorporación de un inversor/cargador
que permitirá el paso para la regeneración, donde se adicionará
un convertidor DC/DC para el control de energía de
regeneración para alcanzar la conversión de la corriente
eléctrica alterna en corriente continua almacenable en las
baterías.
Cuando el vehículo híbrido requiera una mayor potencia, la
corriente producida en el primer generador (por parte del
motor de combustión interna) pasará directamente al motor
eléctrico, entregando una mayor fuerza electromotriz y
permitiendo el aumento de la velocidad del automóvil.
Si bien bajo esta configuración híbrida seleccionada se dispone
de un generador que opera únicamente como tal. La
incorporación de un motor eléctrico con las mismas
características permitirá el funcionamiento de este elemento en
forma de generador siempre y cuando el vehículo opere en
marcha neutra. Por inercia propia o cuando inicie el proceso
de frenado y en este instante el movimiento producido por las
ruedas motrices del automóvil se transmitirá directamente
hacia el motor eléctrico que en este caso ya actúa como un
segundo generador produciendo corriente eléctrica y
conformando el freno regenerativo. Es decir, este permite
disminuir la velocidad de desplazamiento del vehículo y
regenerar la energía.
Al operar el motor eléctrico como generador, la corriente
eléctrica producida será re-direccionada hacia las baterías
permitiendo recargarlas y utilizar esta energía extra en otro
instante. A continuación la Figura 9.
Bajo esta configuración se tiene independencia en la ubicación
del motor de combustión interna y es posible ubicarlo en la
parte posterior del vehículo ya que opera únicamente con el
primer generador. El motor eléctrico necesitará un acople con
un grupo reductor de engranajes helicoidales que permitan
transmitir la potencia necesaria al eje de transmisión del
vehículo.
Figura 9. Esquema del freno regenerativo
4. DISEÑO DEL SISTEMA
4.1 Cálculo de la Potencia del Motor
En las especificaciones dadas para el sistema de freno
regenerativo deben considerarse elementos livianos a fin de
mejorar la eficiencia del vehículo, el motor de combustión
interna deberá tener un equilibrio entre un peso adecuado y una
potencia acorde a las exigencias del usuario permitiendo una
potencia mínima estable que logre mover eficientemente al
generador eléctrico, además debe ser compacto y que permita
su fácil ubicación en el vehículo.
El requerimiento de potencia del motor de combustión interna
es un parámetro importante a tener en cuenta, debido a que
permitirá una adecuada transmisión del par motriz hacia el
generador eléctrico por medio de una velocidad y aceleración
angular seleccionada y que permitirán la recarga de las baterías
una vez producida la corriente eléctrica en el generador.
La potencia generada dependerá directamente de la cilindrada
del motor, de acuerdo a los automóviles existentes se presentan
cilindradas desde 1400cm3, y debido a que es un automóvil
liviano, compacto que no estará solicitado a grandes
exigencias de trabajo más que únicamente el desplazamiento
de los usuarios y pequeñas cargas se selecciona dicho valor;
Se calcula la superficie de pistón que se encuentra
directamente en contacto con la mezcla aire-combustible
proveniente de las válvulas de admisión y escape dentro de la
cámara del cilindro. A continuación la Figura 10.
Se realizó una comparación entre valores de diámetros y
carreras adecuadas que cumplan con la cilindrada del motor,
sin embargo, la mejor selección resulta ser con diámetro de
73,70 mm y carrera de 83 mm otorgando una cilindrada igual
a 1399,26cm3, esto posibilita una correcta selección del motor
de combustión interna sin necesidad de sobredimensionar
elementos del tren de propulsión que al final repercuten en el
propio peso del vehículo.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
66
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1
_______________________________________________________________________________________________________________________________
mejora la eficiencia del vehículo por lo cual se igualan el
número de dientes para N2 y N4 en el primer caso (impulsores)
y N3, N5 en el segundo caso (impulsados), de acuerdo al
análisis realizado en la simulación de Inventor AutoDesk, el
número de dientes de los engranes impulsados será de N 3
=26,12 aproximadamente 26 dientes.
4.1.4 Cálculo de Revoluciones de Engranes
Para obtener las revoluciones de cada engrane del reductor de
velocidades se despeja w5 obteniendo un valor de 1817,75
[rpm], el reductor de velocidad opera aproximadamente a 1800
rpm, Se conoce que w2 es igual a 4800 rpm por ser el piñón o
engrane impulsor inicial del motor de combustión interna y w3
es igual a w4 por encontrarse ambos engranes en el mismo eje
de operación y por consiguiente giran a la misma revolución
4.2 Cálculo de Pares de Torsión de Engranes
Figura 10. Elementos Biela-Pistón
Para un valor de 3000 [N] de la fuerza generada por la
combustión de los gases sobre el pistón se puede conocer el
valor del torque generado en el motor dando como resultado
123 [Nm] de par motor.
De acuerdo al resultado obtenido se tiene una presión efectiva
de 11,04 bar con lo cual se calcula la potencia total del motor
de combustión interna. Las revoluciones del motor (n)
corresponden a 4800 rpm con ello la potencia total generada
por el motor de combustión interna será de aproximadamente
62 [KW] que serán entregados al reductor de velocidades
previo a la conexión con el generador eléctrico.
4.1.1 Transmisión, Tren de Engranes
La potencia calculada del motor de combustión interna permite
diseñar el tren de engranajes o reductor de velocidades que
será acoplado al generador, las revoluciones de operación del
generador son de 1800 [rpm] de acuerdo a la frecuencia de
trabajo (60 Hz), esto obliga al motor de combustión interna
que entrega 4800 [rpm] a reducir sus revoluciones hasta un
valor óptimo de operación cercano a 1800 rpm, para ello se
diseña el subsistema que estará compuesto por 4 engranes
reductores.
Con las revoluciones obtenidas para cada engrane del reductor
de velocidades se procede a calcular los pares de torsión de
acuerdo a la relación de potencia de cada uno de ellos.
4.2.1 Diámetros de Engranes
De acuerdo a los valores obtenidos se procede a calcular los
diámetros para los engranes del reductor de velocidades, el
paso diametral escogido es de 7 [dientes/pulgada]).
d2 = d4 = 2,285 [pulg]
d3 = d5 = 3,714 [pulg]
Los diámetros obtenidos serán los valores requeridos para
realizar el cálculo en el diseño de engranes.
4.2.2 Velocidades de línea de paso
Es la velocidad lineal de un punto sobre el engrane en el radio
del círculo de paso.
La velocidad de la línea de paso Engrane 2,3 se la muestra en
la Ecuación 1.
pies
V23 = 2871,41 [ ]
(1)
min
Velocidad de la línea de paso Engrane 4,5. Ecuación 2.
4.1.2 Cálculo de la Relación de Transmisión
pies
V45 = 1767,021 [
Para el cálculo de la relación de transmisión se escogen las
revoluciones pertenecientes al reductor de velocidades y la
revolución final que se pretende lograr para los engranes las
cuales son w2 igual a 4800 [rpm] y w5 igual a 1800 [rpm]
4.1.3 Cálculo del Número de dientes
Para un reductor de velocidad de menor tamaño se busca que
el número de dientes para los engranes impulsores e
impulsados sean iguales debido a que el tamaño final del
reductor está limitado por su volumen y la disponibilidad de
espacio en el vehículo hibrido, en este caso al ser más pequeño
min
]
(2)
4.3 Cálculo de Cargas Transmitidas
Para el diseño de engranes se especifica la potencia y la
velocidad.
Las cargas transmitidas al engrane 2,3, están en la Ecuación 3.
t
W23
= 955,50 [lbf]
(3)
Las cargas transmitidas al engrane 4,5, están en la Ecuación 4.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos
_________________________________________________________________________________________________________________________
t
W45
= 1552,68 [lbf]
(4)
El valor obtenido correspondiente al engrane 4 es el más
crítico por ser el de menor tamaño (se debe señalar que el
engrane 5 es de mayor tamaño por lo cual no es el elemento
crítico a tomar en cuenta inicialmente) y el engrane 4 deberá
transmitir la mayor cantidad de carga en el tren de engranajes,
se realizan los cálculos respectivos en base a este elemento, el
cual soportará los mayores esfuerzos de contacto que son un
factor limitante.
En la Tabla 1 se presentan los valores obtenidos para el grupo
de engranes reductores calculados inicialmente.
Tabla 1. Valores Obtenidos de Engranes para el Reductor de Velocidades.
Para dicho valor de potencia electromagnética no se han
tomado en cuenta las propias pérdidas de potencia por efectos
de fricción y calentamiento entre los elementos implicados
como los engranes y el rotor del generador, la potencia real del
generador es de aproximadamente 53 [kW].
4.5 Consumo y Regeneración de Energía Eléctrica
Para determinar el consumo de energía se parte de la potencia
entregada por el motor eléctrico, el análisis realizado
corresponde a 110 [KW] de potencia los cuales son utilizados
durante 1 hora para operar el vehículo, de ello se asumen
frenadas por parte del usuario o desplazamiento del vehículo
sin aceleración (movimiento por inercia propia) de donde se
obtienen los siguientes datos. Tabla 2.
Engrane
2
Engrane
3
Engrane
4
Engrane
5
16
26
16
26
4800
2954
2954
1800
Minutos
Segundos
3
3,5
4
4,5
5,0
5,5
6
6,5
7
7,5
8,0
8,5
9
9,5
10
10,5
11,0
11,5
12
12,5
13
13,5
14,0
14,5
15
15,5
180,0
210,0
240,0
270,0
300,0
330,0
360,0
390,0
420,0
450,0
480,0
510,0
540,0
570,0
600,0
630,0
660,0
690,0
720,0
750,0
780,0
810,0
840,0
870,0
900,0
930,0
90,97
147,83
147,83
240,22
2,28
3,71
2,28
3,71
2871,41
2871,41
1767,021
1767,021
955,5
955,5
1552,68
1552,68
1,3166
1,3166
1,1751
1,1751
2
2
1,5
1,5
1,1338
1,1338
1,1677
150
150
158
158
25
19
28
22
2,88
x109
1,77 x10
1,77 x10
1,09 x10
9
9
9
2,16
2,76
2,26
2,5
1,31
1,33
1,61
1,43
225
225
275
225
65
65
75
65
Generador Eléctrico
Para realizar los cálculos de potencia en el generador eléctrico
se toma en cuenta a los elementos con los cuales está
conectado y como se revisó previamente en el reductor de
velocidades el último elemento que entra en contacto es el
engrane 5, de aquí se obtiene el par de torsión adecuado con el
cual operará el generador.
4.4 Cálculo de la Potencia Electromagnética
La potencia electromagnética es el producto del par
electromagnético por la velocidad angular del rotor
Tabla 2. Porcentaje de Energía Recuperada al Tiempo Específico de Frenado.
Energía Demandada durante 1 hora
[W/h]:
Tiempo de
Frenado o
Desplazamiento
del Vehículo sin
Aceleración
durante 1 hora de
Funcionamiento
105000 [W/h]
Energía Recuperada [W]
5 250
6 125
7 000
7 875
8 750
9 625
10 500
11 375
12 250
13 125
14 000
14 875
15 750
16 625
17 500
18 375
19 250
20 125
21 000
21 875
22 750
23 625
24 500
25 375
26 250
27 125
5%
6%
7%
8%
8%
9%
10%
11%
12%
13%
13%
14%
15%
16%
17%
18%
18%
19%
20%
21%
22%
23%
23%
24%
25%
26%
En la Figura 11, se puede observar el porcentaje de energía
recuperada aumenta considerablemente conforme el tiempo de
frenado es mayor.
Porcentaje de energia
Número de
dientes (N)
Velocidad angular
[rpm]
Par de Torsión
[lbf-pie]
Diámetro [pulg]
Velocidad lineal
[pie/min]
Cargas
Transmitidas
Factor Dinámico
Ancho de cara
[pulg]
Factor de
distribución de
carga
Esfuerzo de
contacto [Kpsi]
Esfuerzo a la
flexión [Kpsi]
Numero de ciclos
[rpm]
Factor de
seguridad a
flexión
Factor de
seguridad a
desgaste
Resistencia a la
Fatiga Superficial
[Kpsi]
Resistencia a la
flexión [Kpsi]
Energia Recuperada
Energia Demandada
100%
80%
60%
40%
20%
0%
1
3
5
7
9
11
13
15
17
19
21
23
Tiempo de frenado [min]
Pi = 61 [KW]
67
Figura 11. Tiempo de Frenado Vs Porcentaje de Energía
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
25
68
Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1
_______________________________________________________________________________________________________________________________
5.
CONCLUSIONES
Se concluye que si es posible diseñar el sistema de freno
regenerativo para vehículos híbridos de acuerdo a las
especificaciones planteadas inicialmente. Se han seleccionado
los elementos que intervienen directamente sobre el sistema
permitiendo describir cada proceso por separado.
Al contar un vehículo con frenos regenerativos el aumento de
la energía disponible se ve reflejada directamente en la
autonomía del vehículo ya que logra un mayor kilometraje
consumiendo la misma cantidad de energía.
El principal desafío en el diseño del proyecto radica en el poder
transmitir eficientemente la potencia otorgada por los equipos
y la cantidad de energía disponible por los distintos elementos
compuestos en el freno regenerativo, el análisis comparativo
realizado entre varios modelos de equipos y elementos dan por
determinado que la mejor opción es la conexión mediante
engranes helicoidales.
El conocer los esfuerzos a los que están solicitados los
elementos del freno regenerativo permiten tener una idea
mucho más clara de la factibilidad de cada uno, permitiendo
de esta manera establecer geometrías, fuerzas y medidas
diferentes para cada equipo.
Las baterías utilizadas como fuente de almacenamiento de
energía eléctrica están sometidas a altos niveles de exigencia
y deben ser capaces de contener elevadas cargas con la menor
masa posible siendo un objetivo primordial el reducir el peso
del vehículo para aumentar la autonomía energética del
mismo, además están expuestas a rangos de temperatura muy
amplios, la posibilidad de accidentes e indeterminados ciclos
de carga y descarga.
Biblioteca Virtual. Biblioteca Luis Ángel Arango. Funcionamiento del motor
de combustión Interna. Obtenido de:
http://www.banrepcultural.org/node/92121.
Bravo, Nicolás. (2008). Sistema de Conversión Mecánica Eléctrica para un
generador undimotriz. Memoria para optar al título de ingeniero civil
electricista. Facultad de Ciencias Básicas y Matemáticas. Santiago de Chile.
Chile.
Cengel, Yunus. Termodinámica. Sexta Edición. Editorial McGraw-Hill.
México. 2009.
Faires, V. Diseño de Elementos de Máquinas. Cuarta Edición. Editorial
Montaner y Simon S.A. Barcelona.
El Rincón de la Tecnología. Motor de combustión. Obtenido de:
http://tecnologia-escolapioslogrono.blogspot.com/2011/04/motor-decombustion.html.
Kalpakjian, Serope. Manufactura, Ingeniería y Tecnología. Quinta Edición.
Editorial Prentice Hall. México. 2009.
Karl-Heinz Dietsche. Manual de la técnica del automóvil. Cuarta Edición.
Editorial Bosch.
Martínez Salvador. Electrónica de Potencia Componentes, Topologías y
Equipos. Editorial Paraninfo. México.
Motor eléctrico. Definiciones básicas de los motores eléctricos. Obtenido de:
http://acer.forestales.upm.es/2013/02.
Motores Térmicos. Motor de combustión Interna Alternativo. Introducción,
Elementos Constructivos, Clasificación. Universidad de Valladolid. Escuela
de Ingenierías Industriales. Obtenido de:
https://alojamientos.uva.es/guia_docente/uploads/2012/389/51445/1/Docume
nto.pdf.
Norton Robert. Diseño de Máquinas un Enfoque Integrado, Cuarta Edición.
Editorial Prentice Hall. México. 2011.
Página oficial de Toyota. Ecuador. Obtenido de:
http://www.toyota.com/espanol/prius/#!/features.
Riba Carles. Diseño Concurrente. Universidad Politécnica de Cataluña. 2002.
Shigley Joseph. “Diseño en Ingeniería Mecánica”. Novena Edición. Editorial
McGraw-Hill. Estados Unidos de Norte América. 2012.
REFERENCIAS
Aficionados a la mecánica. Configuración del vehículo híbrido. Obtenido de:
http://www.aficionadosalamecanica.net/2013/11/.
Arcos D. Ortiz A. (2012). Diseño de un sistema de tracción delantera en
motocicletas complementando la tracción posterior. Proyecto previo a la
obtención del título de Ingeniero Mecánico. E.P.N. Quito, Ecuador.
Sotomayor, Gómez. Castillo (Enero 2014). Visual Control of an Autonomous
Aerial Vehicle for Crop Inspection. Revista Politécnica. Volumen 33.
Obtenido de:
http://www.revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2
/article/view/107.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III
_________________________________________________________________________________________________________________________
69
Análisis del proceso de pintura esmalte en estructuras automotrices
mediante Lean Six Sigma-Fase III
Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2

1Escuela
Politécnica Nacional, Facultad de Ingeniería Mecánica, Laboratorio de Análisis de Esfuerzos y Vibraciones Quito,
Ecuador
2 Escuela Politécnica Nacional, Facultad de Ingeniería Mecánica, Quito, Ecuador
Resumen: Se analizó el proceso de aplicación pintura esmalte en las estructuras automotrices con apariencia piel de
naranja (i.e textura) de diferente longitud. Se realizó el despliegue de las matrices CTX (i.e características críticas del
proceso) temperatura de horno, presión de aire, porcentaje de sólidos y CTY (i.e características críticas del producto)
como piel de naranja. Se aplicó el diseño de experimentos factorial fase III de la metodología Lean Six Sigma, de
interacción de las características críticas del proceso con las características críticas del producto. Se determinan los
efectos significativos sobre las características críticas del proceso (porcentaje de sólidos 36,87%, temperatura del horno
132 °C y presión de aire 85 PSI) que disminuyen el efecto piel de naranja, aumentando el rating hasta un valor
optimizado de 6,80. Con los valores optimizados se procede a calibrar el proceso de aplicación pintura esmalte en
estructuras automotrices para obtener satisfacción del cliente.
Palabras clave: Pintura esmalte, piel de naranja, lean six sigma, estructuras automotrices.
Analysis of the process enamel paint in automotive structures with
Lean Six Sigma-Phase III
Abstract: The process of application was analyzed painting enamels in the car structure with appearance peel orange or
dark shades of different length. There realized the deployment of the counterfoils CTX (i.e critical characteristics of the
process) temperature of oven, air pressure, percentage of solid and CTY (i.e critical characteristics of the product) as
peel orange. The experimental design was applied factorial of the phase III of the methodology Lean Six Sigma, of
interaction of the critical characteristics of the process with the critical characteristics of the product. There decide the
significant effects on the critical characteristics of the process (solid 36,87 %, temperature of the oven 132 °C and air
pressure 85 PSI) that diminish the effect peel orange, increasing the rating with optimized value of 6,80. One proceeds
to calibrate the process of application enamel paint in the automotive structures to obtain satisfaction of the client.
Keywords: Painting enamels, peel orange, lean six sigma, automotive structures.
1
1. INTRODUCCION
Las estructuras automotrices al ser sometidas a un proceso de
aplicación de pintura esmalte presentan una textura de forma
ondulada con asentamientos entre claros y oscuros que se
conoce como piel de naranja (Ansdell, 1999). La pintura
aparte de dar una buena apariencia a la carrocería cumple con
el propósito de proteger de la radiación ultravioleta, lluvia
ácida y de los efectos del agua y el clima (Bender, 2013). Los
procesos de aplicación de pintura esmalte se lo realiza en
cabina, las variables que intervienen son analizadas
cualitativamente con modos de fallo y efecto (GMS, 2006).
De acuerdo a la estructura de mejora continua una vez que se
dispone del análisis cualitativo es necesario efectuar el
análisis experimental para estandarizar el proceso (Reina,
2014). La fase III de la metodología Lean Six Sigma se
[email protected].
caracteriza por realizar el análisis experimental factorial de
las variables, partiendo del análisis de modos de fallo y
efecto. La casa de la calidad es utilizada para el despliegue de
las matrices desde las características que involucran al cliente
hasta el producto final. Con Lean Six Sigma se parte de una
evaluación previa de las características críticas del proceso
que impactan significativamente en el producto, que es el
caso de la medición del acabado superficial de la estructura
automotriz al ser sometido a una aplicación de pintura
esmalte (Montgomery, 2005). El proceso para determinar si
un vehículo tiene manchas oscuras cortas o largas (i.e piel de
naranja) que refleja la textura del acabado es una inspección
visual (GCA, 2006). El Wave-scan Plus es un medidor de la
textura de las superficies pintadas que indican la longitud de
onda de las manchas que se presentan. El “rating” es un valor
de rango de ondulaciones de onda que indica la medida del
efecto piel de naranja en las estructuras automotrices que han
sido sometidas a un proceso de aplicación de pintura. Las
mediciones del perfil óptico luminoso de las superficies
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
70
Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2
_______________________________________________________________________________________________________________________________
pintadas dan lugar a ondulaciones de longitud de corta o larga
onda. En lo referente al proceso de pintura las plantas
automotrices siguen utilizando el modo de fallos y efectos
cuyos análisis se encuentran desplegados en los puestos de
trabajo.
Inicio
Det erminar el proceso de
aplicación pintura esmalte
1era.
La metodología Lean Six Sigma en la fase analizar se enfoca
en el diseño experimental para efectuar el análisis
cuantitativo de las características críticas del proceso que
influyen significativamente en el producto
(Salvendy,
2001).
Aplicación
de barniz
2da.
Medir con Wive- scan P LUS el
valor de rat ing
Encontrar las CT X que afectan
a la CT Y o piel de naranja
2. MATERIAL Y MÉTODOS
Aplicar Lean Six Sigma Fase III
2.1Materiales y Equipos
2.1.1 Estructura automotriz y Medidor Wave-scan PLUS
Se utilizó una estructura automotriz de acero aleado tipo SAE
que ha sido sometida a un proceso de aplicación con pintura
esmalte del proveedor DUPONT. Una vez terminada la
aplicación de pintura la estructura automotriz se encuentra en
el patio de terminados esperando la auditoria GCA, que es el
análisis de unidades desde el punto de vista de percepción del
efecto piel de naranja del cliente antes de liberar las unidades
de fábrica. De acuerdo al sistema global de manufactura se
escogen cinco unidades, entre los parámetros a medir está la
piel de naranja en unidades de “rating” (GCA, 2006).
Para medir las diferentes longitudes de onda se utiliza el
medidor Wave-scan PLUS que fue desarrollado entre otros
por Toyota. Es un medidor de piel de naranja que se coloca
sobre las estructuras automotrices después de que han sido
pintadas en las cabinas.
Es aplicable en rangos de (0,1 – 12) mm de longitud de onda
el cual es un parámetro fundamental en las superficies con
piel de naranja. En ondulación corta (0,1 <ʎ≤ 0,6) mm se
percibe un efecto visual muy brilloso desde una distancia
mayor a 50 cm respecto a la superficie pintada. La
ondulación larga (0,6 <ʎ≤ 10) mm, es el parámetro más
importante para determinar piel de naranja (GMS, 2006).
Diseño experimental 3 factores
con dos niveles
Análisis de variabilidad de
int eracción de las CT X que
afect an a la CT Y
Fin
Figura 1. Estrategia para aplicación de la fase analizar de Lean Six Sigma.
2.2.1 Proceso de aplicación pintura esmalte
Para el análisis del proceso se desplegó las actividades
fundamentales que se realizan en el interior de la cabina de
aplicación de pintura. Se encuentran desplegadas las hojas de
trabajo estandarizado que se realizan sobre la estructura
automotriz. En la Figura 2, se muestra el proceso de
aplicación de pintura esmalte con su respectivo trabajo
estandarizado.
Inicio
Preparación de estructuras
automotrices
Aplicación de barniz 1era.
2.2 Métodos
El análisis del proceso de pintura esmalte se lo realizó con la
metodología Lean Six Sigma en lo que respecta a la fase III.
Entre las herramientas para la fase analizar se utilizó diseño
de experimentos para las características críticas del proceso
(CTX) que afectan a la (CTY) o piel de naranja (Salvendy,
2001).
Aplicación de color 1era. mano
Aplicación de barniz 2da.
mano
Aplicación de color 2da. mano
Secado rápido
Presecado
En la Figura 1, se indica la metodología para aplicar la fase
III de Lean Six Sigma en el análisis de la textura de los
automóviles.
Horneo
Fin
Figura 2. Proceso de aplicación pintura esmalte.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
71
Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III
_________________________________________________________________________________________________________________________
Para determinar del efecto piel de naranja se debe colocar el
lente del medidor sobre el punto de medición (puertas, capot
o techo). Para efectuar la operación se debe mantener
presionado el botón operate y mover el medidor hacia delante
rodándolo sobre sus ruedas, como se indica en la Figura 3. Se
toman tres lecturas de rating en cualquier punto de la
superficie, en superficies de considerable dimensión deberán
tomarse las mediciones de rating aleatoriamente. La distancia
entre los puntos de medición debe ser de aproximadamente
50 cm. Se debe registrar el promedio de las mediciones
(GCA, 2006).
Figura 3.Medición (rating) en superficies pintadas automotrices.
2.2.2 Características críticas del proceso que afectan a la
textura
Las características críticas del proceso son las que definen las
condiciones de la cabina de pintura esmalte que deben ser
reguladas de acuerdo al tipo de aplicación sobre la superficie
automotriz. Para la aplicación de pintura de cabina se
determinó que la presión de aplicación, la temperatura del
horno y el porcentaje de sólidos de la pintura afectan
considerablemente al acabado de la superficie.
En la Tabla 1, se indica las variables de cabina que
intervienen en el proceso de aplicación de pintura de las
estructuras que pasan por la cadena transportadora. Se
presentan en la matriz de priorización de características
críticas del proceso y que inciden significativamente en la
textura superficial de las estructuras que son: % sólidos,
presión de aire y temperatura del horno. La matriz de
priorización se obtiene efectuando la calificación: 1: Baja
incidencia significativa, 3: Mediana incidencia significativa,
9: Alta incidencia significativa, (Taguchi, 2005).
Al aplicar Lean Six Sigma fase III, se efectúa una
aproximación de las características críticas del proceso
partiendo de las condiciones en las que opera la cabina de
pintura. El análisis multivariable que corresponde a la fase III
del diseño experimental se lo realiza con los siguientes
factores: porcentaje de sólidos (18-36) %, presión de pistola
de aire (70-80) PSI y temperatura de horno (156-160) °C
correspondiente a un valor de piel de naranja de 6,45 rating.
Tabla 1.Matriz de priorización características críticas del proceso
CTY seleccionadas
Prior. CTY
1
2
3
Flujo de
fluido
Temperatura
de Presecado
Temperatura
Flash Off
(entrada)
Sólidos (%)
Humedad
C
Relativa
T
Presión de
Y
aire
Presión
pintura
Temperatura
Cabina Base
Viscosidad
Color
Temperatura
del Horno
Espesor
Aparie
ncia
piel de
naranj
a
Prior
.
CTX
1
3
9
34
40 - 50 °C
3
3
3
18
30 - 45 °C
1
1
3
12
18 - 36%
3
3
9
36
45 - 75%
3
3
3
18
75 - 85 PSI
3
3
9
36
35 - 45 PSI
1
3
9
34
20 - 26%
9
3
3
24
3
9
3
30
9
9
9
54
Especificaci
ones
Brillo
440- 480
ml/min
22 - 27 seg a
25 °C
135 °C en
10 min
Para la planificación de la corrida experimental
características críticas del proceso se las considera como
factores con dos niveles. El diseño experimental indica
valores de piel de naranja en rating a medida que varían
factores interrelacionados con los niveles.
las
los
los
los
Se utilizó el software Minitab 16 con el módulo diseño de
experimentos y Taguchi. Los valores de rating para obtener
una textura de piel de naranja a satisfacción del cliente es de
5,5 a 7 (GCA, 2006). Para el análisis de variabilidad en las
estructuras automotrices se planteó lo siguiente:
𝐻0 = La presencia de piel de naranja no tiene efectos
significativos con relación al % de sólidos, presión de aire
y temperatura del horno.
𝐻1 = La presencia de piel de naranja tiene efectos
significativos con relación al % de sólidos, presión de aire
y temperatura del horno.
3. RESULTADOS Y DISCUSIÓN
En las plantas ensambladoras automotrices el acabado
superficial en lo que respecta a la textura representa la carta
de presentación de la marca desde el punto de vista visual.
Durante el proceso de aplicación en cabina se originan
superficies en la estructura automotriz de (0,1 a 10) mm
como se indica en la Figura 4, se reflejan manchas oscuras y
claras dicho estado se conoce como efecto piel de naranja.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
72
Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2
_______________________________________________________________________________________________________________________________
aumento del valor de “rating” con tendencia a 7,0. La corrida
experimental permite visualizar los valores para la
calibración del proceso de pintura esmalte de las estructuras a
medida que van trasladándose por la línea de producción. Por
lo general las plantas automotrices de ensamble en el proceso
pintura esmalte efectúan las calibraciones de manera
cualitativa con el análisis de modo de fallo y efecto. Al
aplicar la fase III de Lean Six Sigma se obtienen no solo los
niveles de calibración de cada uno de los factores, sino los
valores de los niveles óptimos de calibración. A medida que
aumenta el valor de rating se obtiene la mejor condición de
disminución del efecto de piel de naranja.
Figura 4.Superficie de estructura automotriz (0,1-10) mm.
La característica crítica piel de naranja para que no impacte
visualmente al cliente debe encontrarse en un intervalo de
5,5<rating≤7,0 con la tendencia de obtener valores óptimos
cercanos a un rating de 7,0. El “rating” depende de las
características del proceso de pintura en lo que respecta a
temperatura del horno, presión de aplicación de aire y
porcentaje de sólidos como se indica en la Tabla 1. Las
condiciones del proceso en cabina de aplicación antes de la
fase III de la metodología Six Sigma son: porcentaje de
sólidos (18%-36%), temperatura del horno (156°C-160°C) y
presión de aire (70PSI-80PSI).
Tabla 2.Medición de piel de naranja: Arriba diseño Experimental I y abajo
diseño Experimental II
Diseño
Temperatura del horno (°C)
Experimental I
135
140
Presión de aire
(PSI)
75
3.1 Resultado del diseño experimental para piel de naranja
Con las características críticas del proceso de la cabina de
pintura se plantea un diseño experimental factorial 2𝐾 con
tres factores. En la Figura 5, con mediciones de piel de
naranja a condiciones antes de la fase III el análisis
multivariable indica la tendencia de “rating” hacia un valor
de 7,0 a medida que va moviéndose los puntos de
temperatura hacia la parte superior en lo referente a
porcentaje de sólidos y presión de aire. La tendencia indica
que el valor de “rating” va aumentando en la dirección
creciente superior de la Figura 5.
Análisis Multi-Vari (Piel de Naranja)
PIEL DE NARANJA (6.5-7 raiting)
18
70
6.5
6.4
Diseño
Experimental II
Presión de aire
(PSI)
TEMPERATURA
DEL HORNO
(156- 160
156
160
6.3
6.2
6.1
36
18
36
6,43
6,81
6,18
6,32
6,44
6,82
6,19
6,30
6,38
6,73
6,25
6,25
6,41
6,69
6,22
6,27
6,37
6,83
6,21
6,32
6,52
6,70
6,21
6,43
6,51
6,71
6,17
6,42
6,49
6,79
6,21
6,40
6,51
6,68
6,19
6,39
6,48
6,77
6,14
6,41
Temperatura del horno (°C)
130
85
36
80
85
Sólidos (%)
18
90
6.0
5.9
135,36
Sólidos (%)
36
40
36
40
6,79
6,80
6,78
6,82
6,78
6,79
6,79
6,77
6,81
6,85
6,79
6,84
6,77
6,78
6,78
6,83
6,78
6,83
6,81
6,82
6,96
6,95
6,94
6,95
6,98
6,97
6,93
6,94
6,99
6,96
6,95
6,96
6,92
6,93
6,92
6,91
6,99
6,98
6,93
6,93
5.8
18
36
% SOLIDOS (18-36%)
3.2 Calibración de la cabina de aplicación pintura esmalte
Panel variable: PRESION DE AIRE (70-80PSI)
Figura 5.Análisis multivariable aproximación para diseño experimntal I.
Para el diseño experimental I se redefinen los intervalos de
las tendencias de las características críticas del proceso a los
niveles: porcentaje de sólidos (18-36) %, temperatura del
horno (135-140) °C, presión de aire en las pistolas (75-85)
PSI, como se observa en la Tabla 2 arriba. Se evidencia en la
corrida experimental con los intervalos de cada factor un
En la Tabla 3 arriba, se obtienen del Minitab 16 los valores
óptimos de factores que tienen efectos significativos sobre el
efecto piel de naranja. Los resultados de la optimización en lo
referente al rating máximo de piel de naranja que se puede
obtener para las condiciones establecidas es de 6,73. Con los
valores resultantes de optimización de cada factor, se
procedió a realizar la corrida experimental II partiendo de los
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
73
Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III
_________________________________________________________________________________________________________________________
niveles: cantidad de sólidos (36-40) %, temperatura del horno
(130-135,36) °C, presión de aire (85-90) PSI. En la Tabla 2
abajo, se observa las mediciones de piel de naranja
correspondientes al Diseño factorial II con un valor máximo
de 6,99 rating. Es evidente que la interacción de los factores
con la combinación experimental de sus niveles factoriales
determina el máximo rating de piel de naranja para el diseño
II. Se procedió a optimizar los factores del diseño
experimental factorial II aplicando software Minitab 16 para
un valor de piel de naranja de 6,80 rating, como se indica en
la Tabla 3 abajo.
explica el 93,49% de la variabilidad del efecto piel de naranja
en las estructuras automotrices.
En la Fig. 6, se indica el análisis de variabilidad con los datos
de rating que siguen una distribución normal. Los valores de
los residuales indican valores mínimos con respecto al rango
de valores aproximándose a 6,99 por la derecha. El rating
obtenido es el máximo de acuerdo a las condiciones del
diseño experimental. Los resultados de los residuales de
rating tienen un comportamiento aleatorio de -0,50 a 0,50.
Residual Plots for PIEL DE NARANJA (6.5-7 rating)
3.3 Resultado de análisis de variabilidad efecto piel de
naranja
Se realiza el análisis de variabilidad con los resultados de piel
de naranja del diseño experimental factorial II. La
probabilidad de la temperatura del horno y el porcentaje de
sólidos es 0,244, efectos no significativos. El efecto de la
presión de aire con probabilidad 0,000 es significativo. El
efecto debido al porcentaje de sólidos con presión de aire es
significativo con probabilidad de 0,028. La presión de aire
0,050
90
0,025
Residual
Percent
Residuals Versus the Fitted Values
99
50
10
1
-0,050
0,000
-0,025
-0,050
-0,025
0,000
Residual
0,025
0,050
6,80
Histogram of the Residuals
6,84
6,88
6,92
Fitted Value
6,96
Residuals Versus the Order of the Data
0,050
8
0,025
Residual
Tabla 3.Optimización de los niveles factoriales: diseño experimental I arriba
y diseño factorial II abajo.
Diseño experimental I
Temperatura
% Sólido
Optimal
Presión
Hi
140
36
D
85
Cur TEMPERAT
[135,3598]% SOLIDO
[36,9]PRESION[85,0]
0,53714Optim al
Hi
140.0
36.0
85.0
D
135
18 [85.0]
75
CurLo
[135.3598]
[36.0]
0.53714
Lo
135.0
18.0
75.0
Piel de naranja
MaximumPIEL DE
um
y= 6,7380yMaxim
= 6.7380
d= 0,15867
d = 0.15867
Espesor
ESPESOR
Targ: 117,0
Targ: 117.0
y
= 116.8008
y= 116,8008
d = 0.97670
d= 0,97670
BRILLO (
Brillo
Targ: 95.0
Targ: 95,0
y = 95.0000
y= 95,0000
d = 1.0000
d= 1,0000
Diseño experimental II
Temperatura
% Sólido
Optimal
Presión
Hi
135,36
40
D
90
Cur TEMPERAT
[132,4389]% SOLIDO
[36,8566]
0,06073
[85,0]
PRESION
Optimal
Hi Lo
135.360
40.0
90.0
130 [36.8566]
35
85
D
Cur
[132.4389]
[85.0]
0.06073 Lo
130.0
35.0
85.0
Piel de naranja
Maximum
PIEL DE
Maximum
y= 6,80042
y = 6.8042
d= 0,05247
d = 0.05247
Espesor
ESPESOR
Targ: 116,8010
Targ: 116.8010
y
= 132.8646
y= 132,8646
d = 0.00436
d= 0,00436
BRILLO (
Brillo
Targ: 95.0
Targ: 95,0
y = 95.0342
d = 0.97959
y= 95,0342
d= 0,97959
Normal Probability Plot of the Residuals
Frequency
Se tiene evidencia a partir del diseño factorial II los niveles a
los que se calibra: cantidad de sólidos (35-40) %, temperatura
del horno (130-135,36) °C y presión de aire (85-90) PSI se
indica en la Tabla 3 abajo.
6
4
2
0
0,000
-0,025
-0,050
-0,04
-0,02
0,00
Residual
0,02
0,04
1
5
10
15 20 25 30
Observation Order
35
40
Figura 6.ANOVA piel de naranja. Distribución normal, residuales y puntos
atípicos de rating.
3.4 Resultado de calibrar proceso de aplicación pintura
esmalte
El efecto piel de naranja en las estructuras automotrices a
medida que se acerca a valores cercanos a 7 disminuye y se
obtiene la apariencia requerida de satisfacción al cliente. Para
el proceso de aplicación de pintura se recomiendan los
factores óptimos de aplicación de pintura esmalte: cantidad
de sólidos 36,86%, temperatura del horno 132,4 °C y presión
de aire de 85 PSI que corresponde al nivel bajo, como se
indica en la Tabla 3.
Los resultados obtenidos de la optimización fueron a partir de
dos corridas experimentales factoriales, partiendo del análisis
multivariable que indica el punto de partida de las
características críticas a calibrar. Las mediciones obtenidas
de piel de naranja indican que la calibración se ha efectuado a
las condiciones actuales del proceso de pintura esmalte.
Aplicando la fase III de la metodología lean six sigma, las
matrices indican las características críticas a optimizar con el
programa minitab 16.
4. CONCLUSIONES
Al aplicar la fase III de la metodología Lean Six Sigma
directamente en los procesos de mejora continua, se logra
tener información cuantitativa para acercarse a la zona de
optimización. El análisis multivariable es la base para obtener
evidencia de las aproximaciones, como fue el caso del
análisis piel de naranja con el valor máximo de rating de 6,73
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
74
Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2
_______________________________________________________________________________________________________________________________
del diseño experimental I, al valor de 6,99 rating del diseño
experimental II, como se indica en la Tabla 2.
La característica crítica del proceso de aplicación de pintura
esmalte de mayor efecto significativo es la presión de aire de
la pistola. Al aplicar diseño experimental se determinó que
los valores óptimos: presión de aire para el proceso es de 85
PSI en interacción con los factores porcentaje de sólidos
36,86% y temperatura del horno 132,4 °C dan un “rating”
esperado de 6,80.
El conocer inicialmente los niveles factoriales basados en la
experiencia y en la forma de ejecutar el proceso es
fundamental para la calibración del proceso de pintura
esmalte en los valores óptimos del porcentaje de sólidos,
presión de aire y temperatura del horno, como se observa la
matriz de la Tabla 1.
Con la aplicación de la fase analizar de la metodología Lean
Six Sigma al mejoramiento de las características críticas del
proceso de pintura, se definirán las variables que tienen
mayor efecto significativo y que serán el foco de mejora. Se
estandarizaran y se efectuarán análisis de los efectos
significativos que impactan a la característica crítica piel de
naranja de las estructuras automotrices.
AGRADECIMIENTO
El presente estudio fue posible realizarlo gracias a GM-OBB
Ecuador en lo referente al Sistema Global de Manufactura
(GMS). A los editores por sus observaciones y
recomendaciones para mejorar el presente trabajo.
REFERENCIAS
Ansdell, D. (1999). Paint and surface coatings. Metals and surface
Engineering, 411-491.
Bender, L. (2013). Automotive Paint. Encyclopedia of Forensic Sciences,
257-264.
General Motors Manual GCA, Gestión de Auditoría del Cliente, 2007.
Montgomery, D. (2005). Design and Analysis of Experiment, (6ta ed.).
EEUU: Wiley.
Sistema Global de Manufactura GMS. General Motors-OBB., EEUU, 2006.
Reina, S. (2014). Estudio Experimental de la variación de la resistencia a la
tracción del hilo de polipropileno. Colim. (1), 67-73.
Salvendy, G. (2001). Handbook of Industrial Engineering, (3ra ed.). EEUU:
Wiley.
Taguchi, G., y Chowdhury, S. (2005). Taguchi’s Quality Engineering
Handbook (2nd ed.). Livonia, Michigan., EEUU: Wiley.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
75
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo
_______________________________________________________________________________________________________________________________
Diseño y Construcción de un Banco de Pruebas de Durabilidad
para Asientos de Vehículo
Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1

1
Escuela Politécnica Nacional, Laboratorio de Nuevos Materiales, Departamento de Materiales, Quito, Ecuador
Resumen: Los asientos de los vehículos requieren evaluación para garantizar su durabilidad y seguridad, mediante
ensayos cíclicos para simular las condiciones durante su vida útil. Este artículo describe el diseño y construcción de
un banco de pruebas de durabilidad para asientos de vehículo. Para el diseño se considera al bastidor como un
pórtico y se hace un análisis de las cargas estáticas con el programa de simulación de elementos finitos ALGOR. De
la misma forma se analizan los componentes de los sistemas de sujeción de muestras e indentación. Para el diseño
del sistema de carga se seleccionan un cilindro neumático, actuador y compresor. Los conductos del sistema se
dimensionan con el cálculo de pérdidas de presión y el consumo de aire. Para el control de sistema neumático se
desarrolla un sistema electrónico comandado por un microcontrolador. Mediante el banco de pruebas se realizan
ensayos de resistencia mecánica de la silla, durabilidad en el extremo delantero, espaldar y apoyacabezas,
resistencia del pivote en el herraje y absorción de choques. El equipo aplica cargas de hasta 100 kgf, durante un
máximo de 150000 ciclos con un tiempo de duración de cada ciclo de hasta 10 segundos. El banco de pruebas
contribuye al control de calidad y normalización.
Palabras clave: Diseño mecánico, banco de pruebas, asientos de vehículo, resistencia mecánica, durabilidad.
Design and Construction of an Automotive Seat Durability Test
Bench
Abstract: Vehicle seats require evaluation in order to guarantee their durability and security, through cyclic tests
that simulate usage conditions during its useful life. This paper describes the design and construction of a test bench
to evaluate vehicle seats durability. For design purposes, the frame structure is considered as a portal and the static
analysis is performed using the finite element simulation software ALGOR, in the same way of analysis for the
sample fastening and indentation systems. For the loading system design a pneumatic cylinder, actuator and
compressor are selected. The pipes are sized by calculating pressure drop and air consumption. For the pneumatic
system control a microcontroller card is developed. The test bench can be used to perform tests like the mechanical
strength of the chair, durability of the front end, backrest durability, fitting pivot strength, shock absorption and
headrest durability tests. The equipment applies loads of up to 100 kgf for a maximum of 150 000 cycles with a
duration of 10 seconds for each cycle. The test bench for vehicle seats contributes to comply with standardized
requirements through quality control.
Keywords: Mechanical design, test bench, automotive seats, mechanical strength, durability.
1
1. INTRODUCCIÓN
El asiento es un componente de gran importancia en la
industria automotriz ya que afecta la seguridad de los
ocupantes de un vehículo. En el Ecuador las ventas
acumuladas hasta el mes de diciembre del año 2014
ascienden a 120 015 unidades, las cuales debieron haber
cumplido protocolos de ensayo que avalen a cada uno de sus
componentes. (Aillon, 2011)
[email protected]
Argentina y Colombia son países que cuentan con una
normativa de homologación para asientos de vehículo. Sin
embargo, en países como Ecuador hace falta plantear un
protocolo de ensayos para avalar asientos automotrices.
(AEADE, 2013)
La construcción de un banco de pruebas de durabilidad para
asientos de vehículo podría contribuir a su homologación.
Para esto, el equipo de ensayos se debe diseñar y construir
bajo criterios de evaluación, basados en normas
internacionales. La selección adecuada de estas normas
permitiría implementar estos procesos en países como
Ecuador. La normativa internacional tomada en cuenta para
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
76
Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1
_______________________________________________________________________________________________________________________________
la homologación de asientos automotrices incluye la norma
colombiana NTC 3638 y el reglamento europeo ECE R17.
Los fabricantes de asientos de vehículo están innovando
diariamente y tratan de formular diseños y definir materiales
y procesos que ayuden a cumplir con las exigencias del
usuario. (IRAM-AITA, 1973-2014) Los asientos han ido
mejorando tanto en su uso como en su fabricación para
responder a las necesidades del usuario. La demanda de
asientos en la época actual hace referencia a necesidades
como son la seguridad, coeficientes de amortiguación altos,
prestaciones elevadas y, por supuesto, la seguridad pasiva.
(Corral et al., 2008)
son tomadas en cuenta en este trabajo, debido a la falta de
normativas para este tipo de elementos automotrices en
países sudamericanos; siendo convenientes por la descripción
del protocolo para homologar asientos de vehículo. En cuanto
al reglamento ecuatoriano, no establece puntualmente una
norma para homologar asientos y sus componentes.
El Instituto Colombiano de Normas Técnicas y Certificación
(ICONTEC) es el organismo nacional de normalización para
Colombia. La normativa permite homologar asientos de
vehículos en base a ensayos estáticos. Las pruebas se las debe
realizar en un banco de pruebas, como se ilustra en la Figura
2. (ICONTEC NTC 3638, 1994)
La estructura base del asiento se la fábrica típicamente en
acero AISI 1018. Esto se debe a sus excelentes características
mecánicas a cargas no muy severas, con un alto grado de
tenacidad. (Aillon, 2011) El anclaje de los asientos se lo
realiza mediante pernos hacia la carrocería del vehículo. El
anclaje soporta toda la carga muerta (elementos propios) y la
carga viva (peso del usuario) sin deformarse ni presentar
fallas en su estructura. Los pernos de anclaje están
constantemente sometidos a esfuerzos de tracción y de corte.
(Corral et al., 2008)
Figura 2. Ilustración de un banco de pruebas estático de asientos.
1.1 Requerimientos en un asiento de vehículo
En el desarrollo de un asiento se respetan los principios de la
biomecánica. (Li-Xin Guao et al., 2014) Un asiento debe ser
anatómico y hallarse en una posición tal que garantice una
buena visibilidad y una actitud fisiológica correcta, sobre
todo para el conductor. En cuanto al reposacabezas, este debe
ser regulable en altura. (Portilla et al., 2009)
La Comisión Económica de las Naciones Unidas para Europa
(UNECE) es el organismo de normalización para Europa. La
normativa permite homologar asientos automotrices en base a
ensayos estáticos y dinámicos, es decir que las pruebas se las
realizan con maniquís o robots montados sobre el asiento de
un vehículo o algún simulador avanzado, como se ilustra en
la Figura 3. (UNECE ECE R17, 2002)
Durante una frenada brusca o una colisión frontal o trasera, la
cabeza se desplaza hacia delante y luego hacia atrás, o
viceversa. Este hecho, que se ilustra en la Figura 1 y
conocido como efecto látigo es responsable de la mayor parte
de las lesiones cervicales que sufren los ocupantes de un
vehículo. Los reposacabezas evitan dichas lesiones o, al
menos, reducen su gravedad. (Li- Xin Guao et al., 2011;
(Kolich, 2014)
Figura 3. Pruebas dinámicas de asientos.
Figura 1. Efecto látigo en un accidente.
En este trabajo solo se examinan los ensayos estáticos,
debido a que los ensayos dinámicos requieren maquinaria
más compleja y costosa para su ejecución. (Johnson, 2013)
1.2 Homologación de asientos automotrices
1.3 Ensayos a realizarse
Para homologar asientos automotrices, se debe establecer
patrones de referencia. Estas referencias se encuentran
definidas mediante normas legales que estandarizan y obligan
a los fabricantes de asientos automotrices a cumplir con
dichos requerimientos. Las directrices colombiana y europea
El ciclo de operación para el banco de pruebas de asientos de
vehículo consta de diferentes ensayos que se aplican a los
elementos del asiento que son la silla, espaldar y
apoyacabezas. Los ensayos a realizarse se definen de acuerdo
con la normativa colombiana NTC 3638. Para que un asiento
sea certificado como idóneo para el uso en vehículos
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
77
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo
_______________________________________________________________________________________________________________________________
automotores, debe cumplir las pruebas y criterios de
evaluación descritos a continuación. (ICONTEC NTC 3638,
1994)
Para el ensayo de resistencia de la silla se aplica una carga P
perpendicular al espaldar del asiento, siendo ubicada
puntualmente en la mitad de la parte superior de la estructura
del espaldar. Esta carga se la aplica para generar un momento
de 42 kgf.m alrededor de la articulación de la silla. Para
efectuar esta prueba se necesita un indentador el cual es un
plato indeformable de acero, de 100 mm de diámetro. Una
vez realizado el ensayo no deberá haber deformación, roturas
o partes sueltas en el herraje de la silla. En la Figura 4 se
ilustra el ensayo a realizar.
En el ensayo de durabilidad en el extremo delantero se aplica
una carga simultánea P de 30 kgf en dos puntos equidistantes
del eje de simetría, marcados en el extremo delantero del
asiento, durante 140 000 ciclos de carga y descarga. Para
aplicar la carga P se necesitan dos platos indeformables de
diámetro 100 mm, con una simétrica de 120 mm. Una vez
realizado el ensayo no deberá presentarse deformación del
herraje ni saltarse los resortes de la silla.
daños tanto en el apoyacabezas como en el espaldar y
correderas.
Para el ensayo de durabilidad del apoyacabezas se aplica una
carga de 50 kgf perpendicular al apoyacabezas durante 10
000 ciclos. Este indentador de semiesfera es fabricado en
madera sin alabeos. Una vez realizado el ensayo no debe
haber roturas en partes soldadas, tanto en el apoyacabezas
como en el espaldar.
2. METODOLOGÍA Y DISEÑO
Se realiza un diseño conceptual y funcional del banco de
pruebas para asientos de vehículos. Del requerimiento que
debe cumplir el equipo se desprenden las especificaciones,
sistemas y alternativas que pueden funcionar tomando como
referencia mecanismos y estructuras de equipos similares
existentes para este tipo de aplicaciones. Se elige la
alternativa adecuada ponderando los criterios de diseño como
funcionalidad, movilización, costo. Finalmente se diseña en
detalle la mejor alternativa que se construirá como prototipo
y se evaluará mediante pruebas de funcionamiento. En la
Figura 5 se representa la metodología de diseño empleada
para el banco de pruebas de asientos para vehículos.
En la ejecución del ensayo de durabilidad del espaldar se
aplica una carga cíclica perpendicular al espaldar del asiento.
La carga aplicada debe generar un momento de 10 kgf.m en
28 000 ciclos. Para aplicar la carga P al espaldar se necesitan
un indentador de madera que no tenga alabeos. Una vez
realizado el ensayo no deberá haber rotura en los resortes,
separación de las soldaduras o deformación.
Figura 4. Ensayo para la resistencia de la silla.
Para el ensayo de resistencia del pivote en el herraje se aplica
una carga de 80 kgf durante 150 000 ciclos sobre el centro
pivote del asiento. El indentador para esta prueba es el plato
indeformable de acero que transmitirá la carga puntual P
hacia el espaldar. Una vez realizado el ensayo no deberán
presentarse grietas, roturas o separación en la región soldada,
luego de ensayar el herraje.
El ensayo de absorción de choques del apoyacabezas se
realiza aplicando una carga perpendicular P al espaldar para
generar un momento de 38 kgf.m alrededor de la articulación;
esta parte del ensayo se la realiza con el indentador para el
espaldar. Enseguida, se aplica una carga P1 de 100 kgf sobre
el apoyacabezas. Para realizar la segunda parte de la prueba
se necesita un indentador en forma de semiesfera fabricado
de madera. Una vez realizado el ensayo no deben presentarse
Figura 5. Metodología de diseño del equipo.
En este trabajo se ha planteado que se requiere un dispositivo
de pruebas de durabilidad para asientos delanteros de
vehículos, capaz de adaptarse y trabajar en base a las
normativas NTC 3638 y ECE R17. Para diseñar y construir el
banco de pruebas se necesita definir las especificaciones y
restricciones de funcionamiento del equipo que son
establecidas por las normas del requerimiento. Las
principales especificaciones son:
- El bastidor debe ser de tamaño reducido que pueda caber
en cualquier laboratorio y facilitar su traslado.
- El sistema debe generar cargas que varían desde 1 kgf
hasta 100 kgf, en intervalos de 1 kgf.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
78
Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1
_______________________________________________________________________________________________________________________________
- El sistema debe permitir variar la frecuencia de desde 1
ciclo hasta 150 000 ciclos en intervalos de 1.
- El sistema debe permitir variar el tiempo de trabajo desde
1 hasta 8 segundos, en intervalos de 1.
- El banco de pruebas para asientos de vehículos tiene como
restricción principal el limitar la aplicación de carga
máxima hasta los 100 kgf.
2.1 Sistemas del equipo
Los sistemas del equipo son diseñados teniendo como
referencia a máquinas con fines parecidos y promoviendo su
correcto funcionamiento durante los ensayos. Para el sistema
de bastidor se toma en cuenta que el equipo debe alojar las
diferentes muestras a ensayar, así como también debe contar
con un sistema que fije las mismas. Además, dentro de este
sistema deben estar montados todos los elementos de carga y
de control del equipo.
Figura 6. Primera alternativa de diseño del equipo
La segunda alternativa de diseño del banco de pruebas para
asientos de vehículo se ilustra mediante la Figura 7. Se
propone un modelo que fija permanentemente la platina de
anclaje del asiento.
Para el caso del sistema de carga, el sistema debe permitir
trabajar con diferentes cargas cíclicas repetitivas, que en unos
casos son de relativamente alta frecuencia, las cuales llegan
hasta 1 ciclo por segundo durante 150 000 repeticiones. Por
esto, el sistema de carga seleccionado es neumático.
El sistema de control debe permitir programar diferentes
parámetros de trabajo como son la carga, el tiempo y el
número de ciclos de un ensayo. Por este motivo se determina
que el sistema adecuado de control es electrónico comandado
por un PIC (controlador programable de interrupciones).
2.2 Alternativas del equipo
En las alternativas del conjunto, se diseñan varias opciones
del equipo, considerando especialmente sus especificaciones.
Las alternativas planteadas resultan del análisis de
funcionalidad que tendrá el equipo y su posibilidad de
construcción. Para seleccionar la alternativa ideal se evalúan
ventajas y desventajas priorizando la ocupación en menor
espacio, materiales y seguridad en su operación.
La primera alternativa de diseño del banco de pruebas para
asientos de vehículo, ilustrada mediante la Figura 6, propone
un modelo que fija permanentemente todo el equipo a una
base de concreto por medio de pernos anclados. La platina de
alojamiento del asiento será estática, con múltiples
perforaciones que permiten sujetar y anclar varios tipos de
asiento.
Para facilitar la variación de altura el sistema de carga, se
incorpora un mecanismo de manivela, poleas y cable
tensionado. La principal desventaja es que el equipo tiene
gran peso y es difícil trasladarlo; mientras que su principal
ventaja es la posibilidad de desplazar longitudinalmente al
asiento.
Figura 7. Segunda alternativa de diseño del equipo.
El cilindro neumático está montado sobre dos travesaños
rectangulares, que a su vez tiene distintos niveles de altura.
La base del equipo tiene niveladores. La principal desventaja
de esta alternativa es que el equipo tiene limitaciones al
momento de realizar las pruebas, debido a que el cilindro
neumático está fijado en una sola posición; mientras que su
principal ventaja es la necesidad de poco espacio disponible.
En la Figura 8 se ilustra la tercera alternativa y diseño final
del banco de pruebas para asientos de vehículos. La selección
de la alternativa final del conjunto y de componentes para el
equipo se la realizó en base a los requerimientos y
especificaciones planteadas en un inicio.
El prototipo del banco de pruebas propone un modelo que fija
permanentemente la plancha de alojamiento, donde se ancla
el asiento. En la plancha de alojamiento del asiento, a su vez
existen agujeros en los que se anclará el asiento
independientemente de su tamaño y forma.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
79
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo
_______________________________________________________________________________________________________________________________
Los elementos que constituyen la estructura del bastidor se
diseñaron mediante un análisis estático y dinámico de las
cargas que actúan sobre éstos. En la Figura 10 se puede
apreciar la denominación dada a cada elemento para su
posterior análisis y diseño.
Figura 8. Alternativa de diseño seleccionada.
El cilindro neumático está montado sobre dos vigas
transversales, y tiene la facilidad de desplazarse tanto vertical
como horizontalmente. Además se tiene la posibilidad de
girar un ángulo de 90° para adaptarse a pruebas hacia el
espaldar y apoyacabeza. Los soportes del equipo tienen
niveladores en sus bases que se adaptan fácilmente a las
irregularidades del piso y brindan estabilidad al equipo. La
desventaja radica en la dificultad para el usuario al realizar
algunas pruebas debido a que el cilindro neumático no se
desplaza longitudinalmente; mientras que su principal ventaja
es la facilidad para variar altura de cilindro neumático.
Ponderando las ventajas y desventajas de las alternativas se
puede concluir que el tercer diseño representa la mejor
opción para el diseño del banco de pruebas.
2.3 Diseño en detalle del banco de pruebas
En el diseño detallado de la alternativa seleccionada se toman
en cuenta los principios de diseño difundidos en la
bibliografía de mecánica de materiales, mecánica de fluidos y
control automático. Para el diseño de la estructura del
bastidor se toman en cuenta las magnitudes de un sistema de
cargas muertas debido al peso de los elementos ensamblados
y a la carga viva debida a la fuerza de martilleo constante.
Para el diseño de la estructura del bastidor se utiliza el
programa de simulación de elementos finitos ALGOR. En la
Figura 9 se muestra el resultado del análisis de la estructura
del equipo.
Figura 10. Elementos constitutivos del sistema bastidor
Como ejemplo de cálculo se muestra el diseño de la viga A
que soporta al cilindro neumático. Para esta viga se eligió
como material al tubo estructural cuadrado ASTM A36, con
arista de 50 mm, espesor de 3 mm en su pared y largo de 0,90
m; su resistencia a la fluencia es de σ = 250 MPa. En la
Figura 11 se ilustra la viga a diseñar con color anaranjado. La
masa del cilindro neumático (color gris) y el grupo
indentador (color café) es Mc = 2 kg y Mi = 2 kg
respectivamente, como también la masa del soporte del
cilindro Mp = 5 kg (color verde). Además, existe la reacción
debida a la fuerza de martilleo máxima de Fm = 981 N (100
kgf), dando como resultado una fuerza total de WT = 1070 N.
Figura 11. Viga A que soporta al cilindro neumático.
El primer paso del diseño es realizar el diagrama de cuerpo
libre del elemento como se muestra en la Figura 12,
Posteriormente se plantean las ecuaciones de equilibrio.
Figura 12. Diagrama de cuerpo libre de la viga A.
Para obtener el peso W de cada elemento se toma en cuenta
la Ecuación (1).
(1)
Figura 9. Resultado del análisis de la estructura.
La fuerza que actúa en la viga viene dada por la Ecuación (2).
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
80
Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1
_______________________________________________________________________________________________________________________________
(2)
de la viga de 0,38 mm; por lo que todos los parámetros se
encuentran dados para un óptimo funcionamiento y
confiabilidad del equipo.
Utilizando la sumatoria de fuerzas y realizando el cálculo
respectivo se obtiene:
Fy = 0
Para el sistema de carga, se considera la alternativa de
trabajar con un sistema neumático, debido a que se trabaja
con cargas cíclicas de alta frecuencia. En la Figura 13 se tiene
el diagrama unifilar de funcionamiento del sistema neumático
para el banco de pruebas de asientos que es realizado en el
programa de simulación neumática FESTO FLUIDSIM.
Para calcular el esfuerzo y deflexión en el tubo estructural
cuadrado, se procede a calcular el área con la Ecuación (3).
(3)
El cálculo del área de la sección tubular de la viga que
soporta al cilindro neumático da como resultado A = 5,6 · 104
m2. Con esto se obtiene el esfuerzo máximo que alcanza la
viga mediante la Ecuación (4)
(4)
El esfuerzo máximo que alcanza la viga en su mayor
exigencia que es σ = 1,91MPa. Para calcular la resistencia a
la fluencia, se emplea la Ecuación (5).
Figura 13. Esquema de funcionamiento del sistema neumático.
Se puede seleccionar el cilindro neumático, si se conoce su
diámetro y la presión de trabajo. Para el caso del banco de
pruebas de asientos, la presión de trabajo es de 4 bares y debe
entregar una fuerza de 100 kgf (981 N). Como se conocen la
presión de trabajo PT = 40 N/cm2 y la fuerza de martilleo Fm
= 981 N, se calcula el área del émbolo con la Ecuación (8)
mostrada a continuación.
(8)
(5)
Donde:
n = 2 Factor de diseño
Conocida el área del émbolo AE, se calcula el diámetro del
émbolo con la Ecuación (9)
Se obtiene una resistencia a la fluencia Sy = 3,82MPa, con lo
cual se concluye que el valor está dentro del rango de
tolerancia del material. Para obtener la inercia de la viga, se
utiliza la Ecuación (6).
(6)
(9)
Una vez obtenido el diámetro del émbolo, se puede obtener el
diámetro del vástago utilizando un actuador con relación de
áreas  = 1,2 mediante la Ecuación (10)
(10)
La inercia de la viga que es I = 2,08·10-7 m4. Con el valor de
la inercia, la fuerza máxima que se aplica F= 1070 N, la
longitud de la viga L = 0,90 m, y el módulo de elasticidad del
material E=207 GPa, se obtiene la deflexión máxima de la
viga dada por la Ecuación (7).
(7)
Dados los resultados, con el diámetro de émbolo DE = 60 mm
y la fuerza de martilleo FM = 981 N, se puede seleccionar el
cilindro neumático adecuado. En la Figura 14 se puede
seleccionar el cilindro neumático adecuado. Para el
funcionamiento del banco de pruebas se necesita un cilindro
neumático de doble efecto que tenga diámetro de émbolo DE
= 63 mm, diámetro de vástago DV = 20 mm y que trabaje con
presiones superiores a 40 N/cm2.
La deflexión máxima de la viga en su máxima carga que es
Ymáx = 0,38 mm. En conclusión se tiene que la viga principal
A, con una carga máxima aplicada de 1070 N, llega a un
esfuerzo máximo de 1,91 MPa, dando una deflexión máxima
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
81
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo
_______________________________________________________________________________________________________________________________
Caudal corregido:
Se tiene el número de Reynolds NR = 48817,1; debido a que
NR ≥ 4000, se determina que el flujo es turbulento. Con el
número de Reynolds y la línea de tuberías lisas se determina
el factor de fricción mediante el diagrama de Moody. (SMC,
2014)
Figura 14. Grafica de selección de diámetro del cilindro neumático (Portilla
et al., 2009)
El consumo de aire del actuador determina las dimensiones
de las válvulas, velocidades de trabajo, cañerías y las
dimensiones del propio compresor. Este consumo de aire se
lo obtiene mediante la Ecuación (11).
(11)
Donde:
Diferencia de áreas: AR = AE - AV
Longitud de carrera: 15 cm (5,90 in)
Número de ciclos por minuto: N = 60 ciclos/min
Número de cilindros iguales: Z = 1
Presión atmosférica: P0 =10,4 psi = 7,17 N/cm2
Presión de trabajo: Pabs = 40 N/cm2
Diámetro del émbolo: DE = 6,3 cm
Diámetro del vástago: DV = 2 cm
Mediante el diagrama de Moody se determinó el factor de
fricción: f = 0,023. Este factor de fricción se lo reemplaza en
la Ecuación (13) de Darcy mostrada a continuación para
determinar la pérdida de carga
(13)
Donde:
Longitud del ducto en el tramo (1-2): l1-2 = 0,8m
Diámetro del ducto: D = 3/8 pulgadas = 9,525 x10-3 m
Caudal corregido: Q = 327 l/min = 0,0055 m3/s
Factor de fricción: f = 0,023
Pérdida de carga en el tramo 5-6: La pérdida de carga en el
tramo 5 – 6, será el mismo que el tramo 1 – 2, de tal manera
que la pérdida de carga en el tramo 5 -6 será:
Corrigiendo el caudal al 10 % debido a fugas que siempre
existen en el sistema se tiene
Balance de energía en el tramo 1-2: Para el balance de
energía en el tramo 1-2 del sistema, se utiliza la Ecuación
(14)
(14)
Q=297,3 l/min *10 %
Con el caudal corregido que se obtiene anteriormente Qcorr =
327 l/min, se trabaja durante todo el diseño del sistema
neumático.
Las pérdidas de carga son ocasionadas por fugas pequeñas de
aire en algún punto del sistema, ya sea por falta de apriete o
desgaste propio del sistema. A continuación se muestran las
posibles pérdidas de carga que se darán en este sistema.
Pérdida de carga en el tramo 1-2: Para determinar la pérdida
de carga primero se debe calcular el número se Reynolds si el
flujo es laminar o turbulento, mediante la Ecuación (12)
mostrada a continuación.
(12)
Despreciando las velocidades por ser muy pequeña la
ecuación anterior se reduce a la siguiente Ecuación (15),
siendo el peso específico del aire es 11,81N/m3
(15)
Balance de energía en el tramo 5-6: El balance de energía en
el tramo 5 – 6, será el mismo que el tramo 1 – 2, de tal
manera que el balance de energía en el tramo 5 -6 será
Despejando la densidad se obtiene la presión en el punto 6
Donde:
Número de Reynolds, NR
Velocidad del fluido, υ
Diámetro del ducto, D
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
82
Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1
_______________________________________________________________________________________________________________________________
Como cálculo final, se selecciona el compresor mediante la
obtención de la potencia requerida. La Ecuación (16)
relaciona los dos sistemas de medición de presión:
display LCD (pantalla de cristal líquido) permite una interfaz
visual entre el operario y la máquina.
2.4 Materiales utilizados y costos de fabricación
(16)
Para la selección de los materiales, se toma en cuenta las
dimensiones dadas por los resultados del diseño de cada
elemento. En la Tabla 1 se muestran los materiales de
construcción para el bastidor.
Donde:
Presión absoluta, Pabs
Presión manométrica, Pgage =4,07kg /cm2
Presión atmosférica, P0 = 0,73 kg /cm2
Tabla 1: Material utilizado en el bastidor.
Material
Designación
Tubo cuadrado
La potencia media efectiva viene dada por la Ecuación (17).
Perfil en L
(17)
Para el control de sistema neumático del banco de pruebas
(control de presión, fuerza, número de ciclos) se desarrolla un
sistema electrónico con tarjeta de control comandado por un
microcontrolador 16F 876. A continuación se describe las
partes principales del circuito.
Para que las señales producidas por el sensor inductivo en el
cilindro neumático puedan ser interpretadas por el circuito, se
implementa un circuito electrónico con un PIC. Este circuito
el encargado de dicha tarea, también serán necesarios diodos
LED, diodos Zener un transistor y resistores eléctricos.
La interfaz presión a corriente mide la presión que está
circulando por el sensor y envía la señal en voltaje. Para
interpretar las señales producidas por el sensor piezoeléctrico
de presión se desarrolla un circuito que está compuesto por
un PIC, un filtro pasa bajos, un cristal piezoeléctrico
condensadores cerámicos y electrolíticos, y resistores
eléctricos.
Para indicar al PIC la velocidad a la que debe trabajar
simplemente un circuito de oscilación para cumplir con esta
tarea. Un microcontrolador PIC necesita de un circuito que le
muestre la velocidad a la que debe trabajar. Dicho circuito se
denomina oscilador de frecuencia.
El teclado es un componente del sistema de control donde el
usuario selecciona los parámetros por medio de botones para
que la máquina pueda realizar el trabajo requerido. El
AGA 6011
Los principales elementos neumáticos del sistema de carga se
detallan en la Tabla 2.
Tabla 2. Elementos utilizados en el sistema de carga.
Elemento
Detalle
Cilindro neumático
Para el funcionamiento del banco de pruebas se necesita un
compresor superior a los 4 hp de potencia, el cual pueda
abastecer un caudal Q = 300 l/min de aire.
ASTM A36
Platinas
Electrodos de suelda
Donde:
Coeficiente de expansión adiabático: ne = 1,4
Presión absoluta: Pabs= 4,8 kg/cm2
Potencia media del compresor: Pme
Caudal corregido: Q = 327 l/min = 0,0055 m3/s
2,5
Plancha de acero
Ø embolo: 63 mm
Regulador de caudal
Ø: 3/8 pulgada
Electroválvula
Posiciones: 5/2
Regulador de presión
Presión: 0 a 60 psi
Tubo de poliuretano
Ø: 6,5 mm
Conectores
Ø: 1/8 pulgada
Aliviador de presión
Ø: ½ pulgada
En la Tabla 3 se detalla los elementos electrónicos que se
utilizan en el sistema de control.
Tabla 3. Elementos utilizados en el sistema de control.
Elemento
Detalle
Tarjeta de control
Varios elementos
Display
Sensores
Sensor de presión
Tipo: reed Switch
Presión: 0 a 150 psi
El costo total de fabricación del banco de pruebas se
compone de costos directos y costos indirectos de
fabricación. Los costos directos incluyen materiales,
elementos normalizados y el maquinado, y suman $ 1533.
Los costos indirectos incluyen materiales, el diseño y otros
gastos, y suman $ 693. El costo total de construcción del
banco de pruebas de durabilidad para asientos de vehículos es
de $2226. Este costo es competitivo con equipos de
características parecidas desarrollados localmente. (Cruz,
Amboya, 2011)
3. FUNCIONAMIENTO DEL BANCO DE PRUEBAS
Para realizar un ensayo, se coloca el asiento individual de
vehículo sobre la plancha metálica. En la Figura 15 se
muestra la correcta adecuación de componentes en el banco
de pruebas.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
83
Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo
_______________________________________________________________________________________________________________________________
Aillon J. (2011), Diseño de asientos para mejorar el rendimiento laboral de
los conductores de vehículos pesados. Tesis de grado, PUCE, Ecuador .
Asociación de Empresas Automotrices del Ecuador AEADE (2014). Cifras
de ventas acumuladas de automotores desde diciembre 2013 a diciembre
2014.
[en
línea].
Ecuador.
Obtenido
en
http://www.aeade.net/web/index.php?option=com_content&view=articar&id
=145&Itemid=80).
D. Cruz, Amboya F. (2011). Diseño y construcción de un equipo de ensayo
para pruebas de deformación y resistencia de asientos y espaldares de
poliuretano para autobuses. Tesis de grado, ESPOCH, Ecuador,
ICONTEC NTC 3638. (1994), Herrajes para sillería automotriz, Bogotá,
IRAM – AITA 1 – G1. Automotores, cabezales de seguridad para asientos.
Vigente desde el año 1973 al 2014.
Johnson controls automotive seating. (2013). World's largest testing network
[Video]. Obtenido de: https://www.youtube.com/watch?v=HjFpNEFdTa0
Figura 15. Adecuación de componentes para un ensayo.
Una vez ubicado el asiento, se lo fija mediante los pernos y
platinas diseñados para este fin. A continuación se selecciona
la posición adecuada de trabajo del sistema de carga, en el
cual se coloca el molde indentador apropiado para cada
prueba. Posteriormente se programa el trabajo que realizará
el equipo en base a la necesidad del usuario y al ensayo a
practicar.
4. CONCLUSIONES
El banco de pruebas para asientos de vehículo construido
permite comprobar la calidad de estos componentes al
realizar ensayos de impacto cíclicos en asiento, espaldar y
apoya cabeza, lo que permite determinar la durabilidad del
componente.
El colocar un aditamento de alivio de presión en el circuito
neumático permitió proteger y facilitar el trabajo con las
mangueras de presión.
Li–Xin Guao, Hui Chena, Jin–li li. (2011) Endergonic property analysis of
vehicle seat pillow under heads crash loads. Procedia Engineering.Vol. 15,
pp. 3046-3050,
M. Corral, A. López,R. Grimaldi, F. Aparicio. (2008) Nuevos requisitos y
avances en seguridad pasiva en autobuses y autocares. Primer Congreso
Iberoamericano de Seguridad Vial.
M. Kolich. “Using failure mode and effects analysis to design a comfortable
automotive driver seat”. Applied Ergonomics. Vol. 45, pp.1087-1096. 2014
M. Tada, S. Sekiguchi, T. Nisimatsu, E. Toba. (1998) Measurement and
evaluation of sitting comfort of automotive seat . Instrumentation and
Measurement Technology Conference.
Serrano A. (2009), Neumática práctica, 1era. Edición. España.
SMC.(2014) Procedimiento de selección del modelo de cilindro neumático,
Obtenido de:
https://es.scribd.com/doc/.../Seleccion-de cilindrosneumáticos-SMC.
UNECE ECE R17 (2002), Disposiciones uniformes relativas a la
homologación de vehículos respecto a los asientos, a sus anclajes y a los
apoyacabezas; Geneva, 2002.
El uso de un microcotrolador es una opción más económica
para controlar el funcionamiento del sistema de carga ya que
los PLC´s tienen usualmente mayores costos de adquisición y
ocupan mayor espacio físico en sus adecuaciones.
El sistema de carga neumático es mejor opción que uno
hidráulico para esta aplicación ya que las presiones
necesarias son relativamente bajas y la frecuencia de trabajo
es alta. Además, es más económico su funcionamiento,
mantenimiento y los componentes ocupan menor espacio ya
que no se requiere de un circuito de retorno para el fluido.
REFERENCIAS
A. Ghosal, V. Kumar, S. Ansari. (2014) A brief review on advance
manufacturing process of automobile seat production. International Journal
of Scientific Engineering and Technology. Vol. 9, pp.170-171.
A. Mokhtar, E. Abdullah, (2007) Vehicle seat design. Sustainable
Automotive Technologies.
A. Portilla, C. E. Guamán, S. D. Morales, A, Ribadeneira, A. Salas, S. Mena,
(Julio, 2009). Uso de dispositivos postcombustión para reducir el material
particulado en autobuses. Revista Politécnica. Vol.28, No, pp. 111-120.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios
_________________________________________________________________________________________________________________________
84
Diseño de un Sistema Web para Asignación de Becas con Integración e
Interoperabilidad en Base a un Bus de Servicios
Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3

1Pontificia Universidad Católica del Ecuador-sede Ibarra, Escuela de Ingeniería, Ibarra, Ecuador
2Univeridad de Los Andes, Escuela de Ingeniería de Sistemas, Mérida, Venezuela
3Secretaría de Educación Superior, Ciencia, Tecnología e Innovación, Programa Prometeo, Quito, Ecuador
Resumen: En este trabajo se presenta el diseño de un sistema web para asignación de becas utilizando un
bus de servicios de empresas, asegurando un sistema más escalable y mantenible, atributos de calidad
necesarios. Para el diseño se sigue las especificaciones de las arquitecturas basadas en servicios, donde, los
servicios desarrollados se registran en un bus de servicios a fin de asegurar un bajo acoplamiento y una
mayor integración. Un bus de servicios de empresas es un software que actúa como intermediario,
permitiendo la comunicación entre servicios de diferentes aplicaciones. En él se registran todos los servicios
expuestos por las aplicaciones de un entorno empresarial, sin importar las plataformas utilizadas. El diseño
de aplicaciones basada en un bus de servicios facilita la creación de nuevos servicios utilizando la
composición de servicios existentes, intentando aislar el acoplamiento entre los servicios solicitados y el
medio de transporte y permitiendo una alta integración de servicios distribuidos. Estas características
facilitan la escalabilidad y el mantenimiento evolutivo y adaptativo de los sistemas. Este desarrollo permite
definir e integrar un conjunto de servicios web que podrán ser reutilizados dentro de nuevas aplicaciones,
apoyando el desarrollo de una arquitectura de información que apoye y se alinee con los procesos que se
realizan dentro de la organización.
Palabras clave: Diseño de sistemas, servicios web, bus de servicios, integración de sistemas, sistema de
asignación de becas
Web System for Awarding Scholarships Based on a Bus
Service
Abstract: This paper describes the design of a web system for grants allocation using a enterprise service
bus is presented, ensuring a more scalable and maintainable system, which are quality attributes required.
For the design it was followed the specifications of the service-based architectures, where developed
services are recorded on a bus service in order to ensure low coupling and greater integration. A bus service
is an enterprise software that acts as an intermediary, enabling communication between services of
different applications. In it all services exposed by applications in an enterprise environment, regardless of
the platforms used are recorded. Application design based on a service bus facilitates the creation of new
services using the composition of existing services, trying to isolate the link between the services requested
and the means of transport and allowing high integration of distributed services. These features facilitate
the scalability and evolutive and adaptive maintenance of the systems. This development allows to define
and integrate a set of web services that can be reused in new applications, supporting the development of an
information architecture that is based and is aligned with the processes taking place within the
organization.
Keywords: System design, web services, bus services, systems integration, system for awarding
scholarships.
1. INTRODUCCIÓN
La globalización ha obligado a las organizaciones a ser más
competitivas, dada la necesidad de posicionarse en ese
mercado globalizado, este fenómeno ha hecho que las
organizaciones necesiten revisar y actualizar sus estrategias y
[email protected]
procesos de negocio de forma continua; estrategias que se
apoyan en el conjunto de datos e información que se
gestionan en cada proceso. Esta es la razón por lo que toda
organización pública o privada, está interesada en que su
departamento de tecnologías de Información y comunicación
(TIC) apoye sus procesos de toma de decisiones estratégicas,
para ello necesitan conocer todos los flujos de datos e
información que internamente se manejan, requerimiento que
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
85
Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3
_______________________________________________________________________________________________________________________________
en muchas ocasiones es difícil de satisfacer dado que la
información solicitada forma parte de aplicaciones que
pertenecen a diferentes departamentos, requiriendo procesos
de búsqueda e integración de datos e información, lo que
generalmente termina ocasionando pérdidas de tiempo o
incremento en costos. Por ello, en la actualidad, las
organizaciones requieren de aplicaciones corporativas,
integradas y distribuidas, alineadas a sus procesos de
negocio. Estos sistemas corporativos integrados
se
caracterizan por incrementar la complejidad de gestión,
control y comunicación de sus aplicaciones, requiriendo
herramientas tecnológicas que le permita lidiar con esta
complejidad.
En los últimos años, en el desarrollo de aplicaciones
integradas se ha utilizado diferentes herramientas
tecnológicas, tales como Arquitecturas Orientadas a Servicios
(Service Oriented Architect SOA), servicios web, Integración
de Aplicaciones empresariales (EAI), todas ellas apuntan a
mejorar la integración de los procesos de negocios de la
organización. Sin embargo, el Bus de Servicios de Empresa
(BSE) extrae las mejores características de estas tecnologías
(Chapell, 2004). Los BSE son un nuevo enfoque de
integración que permite un bajo acoplamiento entre sus
aplicaciones y una red de integración altamente distribuida.
Es una plataforma de integración basada en estándares que
combina mensajería, servicios web, transformación de datos
y enrutamiento inteligente para conexiones confiables y
coordina la interacción de un gran número de aplicaciones
diferentes de una empresa extendida, constituida por la
organización y los interesados en el negocio.
La integración de servicios corporativos trata de resolver el
problema que surge cuando los servicios web dentro de la
organización se multiplican. Un aspecto importante para
manejar esta complejidad es desarrollar estrategias que asilen
los servicios y faciliten su integración, para ello es necesario
(Ildapena, 2009):

Identificar los mensajes y las rutas entre los
servicios

Permitir el flujo de mensajes a través de diferentes
protocolos de transporte (HTTP, FTP, SMTP)

Transformar los formatos de los mensajes entre el
solicitante y el servicio

Proporcionar robustez
comunicaciones

Proporcionar enrutamiento inteligente y ubicación
independiente de la transformación
y
seguridad
de
las
El BSE se considera la columna vertebral de una Arquitectura
Orientada a Servicios (AOS). Las AOS, (conocida como SOA
por sus siglas en ingles), proveen una arquitectura de
integración con una visión abstracta de aplicaciones y
componentes que permiten tratar con servicios de alto nivel.
Es la arquitectura más utilizada ya que permite que una
colección de sistemas distribuidos y aplicaciones complejas
se puedan transformar en una red de recursos integrados y
flexibles.
La necesidad que tienen las organizaciones de contar con una
arquitectura de información alineada a sus procesos de
negocios que permitan incorporar de forma rápida
modificaciones generadas por cambios en los objetivos
estratégicos, ha obligado a los departamentos de TIC a
adoptar a SOA como un estándar para el desarrollo de sus
aplicaciones, ganando así un mayor grado de integración,
proporcionando una inteligencia de negocio precisa y
accesible con la cual se podrán adoptar mejores decisiones,
ayudando a las organizaciones a optimizar sus procesos
internos y flujos de información e incidiendo directamente en
la mejora de la productividad (Corporation, 2010).
Adicionalmente, los servicios web han otorgado mayor
importancia a las arquitecturas AOS por ser un enfoque
basado en estándares para la interoperabilidad, permitiendo la
integración de aplicaciones que se encuentran en diferentes
plataformas y ambientes.
En este trabajo se presenta el desarrollo de una aplicación
web para apoyar el proceso de asignación de becas en la
PUCESI, Este proceso es responsable del estudio y de la
asignación de becas a los estudiantes que soliciten el apoyo
de la institución para realizar sus estudios. El sistema
desarrollado servirá para proveer los datos e información
necesaria a todas las actividades que se realizan en este
proceso, el alinear las informaciones a sus procesos, permitirá
descubrir relaciones nuevas e interesantes. Para su desarrollo,
se utilizaron metodologías y tecnologías asociadas a las AOS,
garantizando un buen diseño lo que permitirá la escalabilidad
del sistema, asegurar integración con otras aplicaciones y
reutilización de los servicios aquí desarrollados. Este sistema
formará parte de la arquitectura de información requerida por
la PUCESI para apoyar todos sus procesos de negocio.
Los trabajos en el área de desarrollo de aplicaciones basadas
en servicios es amplia, por citar algunos trabajos se tiene
(Calvo, Gracia, Bayo, 2014) presentan la arquitectura de una
aplicación web para el análisis y diseño de estructuras
utilizando servicios web en el diseño de sus 4 componentes
de su sistema, (Pernalete, López, Montaño, Miguel, 2007)
presenta la arquitectura de un sistema de enseñanza
utilizando un EBS para la integración de sus componentes,
Huanzhuo, Shuai et al presentan un modelo conceptual
basado en SOA y BSE para auditoria continuas (Huanzhuo,
Shuai, Fang, Yuning, 2008). Por otro lado, (Echeverría,
Astudillo, Estrada, 2008) han investigado en los modelos de
calidad (ESB-QM) con el objetivo de proveer un lenguaje
que haga posible tratar a los EBS como productos estándares.
El documento está estructurado en secciones. En la sección 2
se describe las herramientas tecnológicas y fundamentos
teóricos sobre las que descansa este trabajo. La sección 3
presenta el análisis del negocio, requisitos y diseño del
sistema. Finalmente, en la sección 4 se presenta las
conclusiones y trabajo futuro.
Revista Politécnica- Marzo 2016, Vol. 36, No. 2
Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios
_________________________________________________________________________________________________________________________
metadata. Está basado en estándares tales como
XML, esquemas XML, http (Saffirio, 2006).
2. HERRAMIENTAS TECNOLÓGICAS Y MARCO
TEÓRICO
2.1
Arquitectura Orientada a Servicios
En la actualidad, el desarrollo de sistemas de información,
específicamente, sistemas WEB se diseña usando una
Arquitectura Orientada a Servicios (AOS). Una AOS es un
estilo arquitectónico de TI que soporta la transformación de
una empresa en un conjunto de servicios vinculados o tareas
empresariales repetibles a las cuales se puede acceder en una
red cuando sea necesario.
AOS es un paradigma de arquitectura para sistemas de
información basados en servicios (SSII de sus siglas en
ingles) que busca el mínimo acoplamiento entre sus
componentes y que promueve su reutilización, favoreciendo
la identificación de un conjunto de servicios en red y la
definición de los procesos por los cuales interactúan. SSII
provee la información a las organizaciones que le permite
saber qué está sucediendo en los negocios, lo que les ayudará
a mejorar los modelos empresariales ya existentes. Al usar
AOS se puede transformar sus procesos empresariales en
servicios reutilizables y flexibles lo que facilitará la mejora y
optimización de los procesos o la inclusión de nuevos
proceso (IBM 2011). Cuando se desarrolla una AOS guiada
por objetivos empresariales estratégicos, se aseguran los
beneficios principales del uso de las TIC en las
organizaciones:

Alineación de la TI a los negocios

Reutilización máxima de los activos de T
86
AOS propone el uso de metodologías ágiles (Scrum, XP,
entre otros) por adaptarse mejor a entornos donde los
requerimientos de negocio son desconocidos o cambiantes, el
mismo funcionamiento del negocio introduce cambios en el
modelo de servicios que requiere una respuesta rápida por
parte del departamento de TI.
2.2
Servicios Web
Un servicio web (WS de sus siglas en inglés) es un servicio
ofrecido por una aplicación que expone su lógica a clientes
de cualquier plataforma mediante una interfaz accesible a
través de la red utilizando protocolos de internet. Es un caso
particular de mecanismo estándar para implementar la
interacción entre los componentes de software, mediante la
invocación de métodos remotos. Los servicios web bajo
AOS son la unidad básica de funcionalidad en la arquitectura
y se definen como un conjunto coherente de funcionalidad,
auto-contenido, sin estado e independiente.
Un servicio web específica una interfaz de software que
describe un conjunto de operaciones a las cuales se puede
acceder por la red a través de mensajería XML, usa
protocolos basados en XML para describir una operación a
ejecutar o intercambiar datos con otro servicio web. Un grupo
de servicios web que interactúa de esta forma define la
aplicación de un servicio web específico en una arquitectura
orientada a servicios (SOA) (IBM, 2011). La Figura 1
describe los pasos a seguir para la creación, registro,
búsqueda y utilización de un servicio Web.
El negocio dirige los servicios y los servicios dirigen la
tecnología, las AOS permiten definir servicios
que
conforman la capa de abstracción entre el negocio y la
tecnología, proporcionando habilidad para responder a
cambios en los requisitos. El conjunto de técnicas,
recomendaciones y tecnologías que denominamos AOS
buscan que los nuevos SSII sean modulares, abiertos e
independientes.
AOS utiliza un conjunto de tecnologías estándares de
software para el intercambio de datos entre aplicaciones tales
como SOAP (Simple Object Access Protocol), WDSL (Web
Services Description Language) y UDDI (Universal
Description Discovery and Integration) (The open Group,
2011):

SOAP: Es un protocolo de mensajería para el
intercambio de información entre sistemas.

WSDL: Es un lenguaje XML para describir los
servicios en la arquitectura SOA.

UDDI: Define los mecanismos para publicar
(catalogar) servicios en un registro, y para que sus
consumidores puedan buscarlos y encontrar su
localización física. Permite administrar la
información sobre componentes de servicios y su
Figura 1. Creación, registro, búsqueda y uso de un servicio Web
Fuente: (Besteiro y Rodríguez, ,s.f.)
Los WS suponen una interconexión punto a punto que, por sí
sola, no tienen capacidad de integración y flexibilidad frente
a los cambios que se necesitan en los SSII de las
organizaciones, de ahí la importancia de integrarse con otras
herramientas tecnológicas, como AOS y BSE.
2.3
Bus de servicios de empresa BSE
BSE es una arquitectura de software de middleware que
ofrece los servicios fundamentales para desarrollar
arquitecturas más complejas, proveyendo la infraestructura
de comunicaciones subyacente a otros componentes
software.
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
87
Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3
_______________________________________________________________________________________________________________________________
En un BSE las aplicaciones y los servicios para el manejo de
eventos están unidos en una AOS con muy
bajo
acoplamiento, lo que les permite operar de manera
independiente uno de otro sin dejar de ofrecer valor agregado
a las funciones de negocio.
BSE provee la implementación troncal para un AOS, utiliza
un bus de mensajes multi-protocolos lo que ofrece un
enfoque altamente distribuido para la integración,
permitiendo a los departamentos o unidades de negocio
construir su proyecto de integración de manera incremental.
BSE considera las mejores prácticas en patrones de
diseño, para integración de aplicaciones, planteando la
existencia de un componente de mediación que provee
servicios de enrutamiento, transformación de mensajes,
publicación y distribución de eventos y soporte para
múltiples protocolos
BSE permite mantener el control local y autonomía en un
proyecto de integración individual, sin dejar de ser capaz de
conectar cada proyecto de integración a una red de
integración más global. Un BSE se caracteriza por:
















Integración basada en estándares
Penetrante: capaz de atravesar una empresa
extendida e ir más allá, teniendo un alcance global a
través de las organizaciones departamentales, unidad
de negocio y socios comerciales
Integración altamente distribuida y despliegue
selectivo
Transformación de datos distribuidos
Manejo de eventos AOS
Transparencia de ubicaciones
Transparencia del transporte
Soporte, multiprotocolo
Basado en patrones de intercambio de mensajes
Capacidad para el manejo de flujo de procesos
Seguridad y confiabilidad
Ambiente federativo pero autónomo
Configuración remota y administración
Tiempo real del flujo de datos
XML como el tipo de dato nativo de BSE
Reconocimiento de las operaciones
Un ESB provee la infraestructura básica, a la que se le
pueden incorporar componentes en forma de módulos. Ver
Figura 2
3. DESARROLLO DEL SISTEMA DE ASIGNACIÓN
DE BECAS
El desarrollo del sistema se realizó en dos fases, inicialmente
se hizo el análisis de negocios a fin de identificar y
especificar sus procesos, actividades, y los objetos del
negocio que se consumen o generan para finalmente definir
los requisitos del sistema. En la segunda fase, utilizando
Scrum como método ágil para la gestión de proyecto, se
realizó el diseño y construcción del sistema.
3.1.
Análisis del negocio
3.1.1. Modelo de Procesos
La PUCESI tiene como política institucional, la ayuda y
asistencia económica a los estudiantes que así lo requieran.
Para alcanzas esta política se han definido un conjunto de
procesos que tanto estudiantes como docentes y personal
administrativo deben seguir, La Figura 3 muestra el modelo
de procesos que se definió luego del análisis realizado, para
su simbolización se utilizó la notación BPMN (Business
Process Modeling Notation). En este modelo se especifican
todos los procesos que se realizan para la solicitud y
asignación de becas.
BPMN DiaramaProcesos
«BusinessProcess»
Elaboración del cronograma
de presentación de
información de becas.
«BusinessProcess»
Recepción de las solictudes
de beca
«BusinessProcess»
Verificación de la
información de las
solicitudes
«BusinessProcess»
Elaboración de informes
«BusinessProcess»
Resolución de la Comisión.
«BusinessProcess»
Análisis de las becas por
parte de la Comisión
Figura 3. Modelo de procesos para la asignación de becas
Fuente: Elaboración propia
Para asegurar la ejecución de cada uno de los procesos,
internamente se realizan un conjunto de actividades y se
consumen o generan datos e información conocidos como
objetos del negocio. La Figura 4a y 4b presentan los
diagramas de actividades asociados a los procesos de
Recepción de solicitudes y Resolución de la comisión.
BPMN Elaboración de las solictudes de beca
Solicitud de beca
solicitudBeca
«flow»
Inicio
Recibir la
solicitud de beca
Documentación de Soporte
Documentación
«flow»
Verificar
documentación
de soporte
Fin
Figura 4a. Diagrama de actividades del proceso de Recepción de solicitudes
de beca
Fuente: Elaboración propia
Figura 2. Esquema SOA basado en BSE
Fuente: (Pernalete, López, Montaño, Miguel, 2007)
Revista Politécnica- Marzo 2016, Vol. 36, No. 2
Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios
_________________________________________________________________________________________________________________________
BPMN Análisis de Becas por parte de la Comisión
BecaAprobadas
Informe analisis de beca
Estudiante
uc RequisitosAsignaciónBecas
Sistema Asignación de Becas
Inicio
Discusión de la
beca
Estudiante
EstudiantesBecas
InformePostulante
«flow»
«flow»
aprobada
«flow»
Aprobar beca
Enviar
notificación
aprobación
Gestionar de
Solicitudes
Estudiantes
Enviar
notificación
de no
aprobación
Firmar Acta
Fin
Manej ar Sistema
Académico
«trace»
Acta aprobación
Figura 4b. Diagrama de actividades del proceso de Resolución de la
comisión
Fuente: Elaboración propia
Personal PUCESI
Getionar Becas
3.1.2. Modelo de Objetos del negocio
Los objetos de negocio representan los conceptos que
emergen durante la fase de análisis, se refiere a esos
elementos que son consumidos o generados por las
actividades de cada proceso. El diagrama de la Figura 5
describe los objetos del negocio identificados.
Elaborar Informes
Figura 6a. Diagrama general de casos de usos (requisitos)
Fuente: Elaboración propia
uc Gestionar de Solicitudes
Gestionar solicitud
Solicitar Beca
Consultar
requisitos beca
«extend»
Consultar
Solicitud
Figura 5. Modelos de objetos del negocio
Fuente: Elaboración propia
3.2.
Estudiantes
Personal PUCESI
Negar
Solicitud
Identificación los de requisitos funcionales
En este proceso se analizaron, identificaron y clasificaron los
requerimientos que el sistema de asignación de becas debía
satisfacer. La Figura 6a presenta el diagrama de casos de uso
general del sistema. En él se definen las principales
funcionalidades del sistema, como son gestionar las
solicitudes, gestionar datos de las becas, elaborar informes y
repostes administrativos y manejar los datos académicos de
los estudiantes. La Figura 6b muestra la análisis del diagrama
de casos de uso Gestión de Solicitudes y la Figura 6c los
casos de uso del proceso de análisis del caso de uso
Elaboración de Informes.
Validar
solicitud
Aprobar
Solicitud
Actualizar
DatosSolicitud
Figura 6b. Diagrama de Caso de usos de gestionar solicitud
Fuente: Elaboración propia
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
88
89
Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3
_______________________________________________________________________________________________________________________________
3.3.1
uc Elaborar Informes
Servicios Web por áreas:
Elaborar informes
Elaborar reporte
pension por periodo
Para implementar los servicios utilizando el bus de servicios,
fue necesario dividir los servicios por áreas, en ellas se
integran los servicios que interactúan con el proceso de
becas. Las áreas definidas fueron:




«extend»
Elaborar reporte
pensión por fecha
Elaborar reportes
económicos
«extend»
Académica
Financiera
Administrativa
Externa
«extend»
Elaborar reporte
pensión unificado
3.3.2 Arquitectura del software
Elaborar reporte
general becas
El diseño de la arquitectura software sigue el patrón de
diseño MVC, basado en el estilo arquitectónico de capas, los
Servicios definidos se agrupan en componentes, estos son:
«extend»
Elaborar informes a la
comision





Figura 6c. Diagrama de Caso de elaborar informe
Fuente: Elaboración propia
3.3.
Diseño de Sistemas
En el diseño de la aplicación se especifican los componentes,
con los servicios que provee cada uno, el modelo de datos
lógico, implementable y físico, y la interfaz del sistema. Esta
aplicación, además de los requisitos funcionales posee
requisitos no funcionales, entre ellos los que incidieron
directamente en la toma de decisiones arquitectónicas son: la
escalabilidad, interoperabilidad y mantenibilidad de la
aplicación, en base a estos requisitos se decide AOS como
estilo y MVC (Modelo Vista Controlador) como patrón
arquitectónico (Bass, Kazma, 2003). El diseño y construcción
se gestionó utilizando un método ágil, en este caso Scrum. En
cada iteración (sprint)
se diseñó e implementó las
funcionalidades seleccionadas en base a sus prioridades
(clasificación) que se establecieron en la fase de análisis. En
este trabajo se presenta la arquitectura final obtenida, la cual
fue el resultado de un proceso de diseño y refinamiento
realizado en las iteraciones.
En el diseño del sistema se definen: los servicios requeridos
por la aplicación, especificados en el modelo de servicios; el
flujograma del proceso de becas, la interfaz de cada servicio
web y las conexiones para la integración de las aplicaciones.
Adicionalmente, para satisfacer el requisito no funcionales
se propuso utilizar un BSE, dada sus características de alta
integración, bajo acoplamiento y escalabilidad que ellos
poseen. La de integración entre las diferentes aplicaciones,
programados como los servicios web se realizó en el servidor
de aplicaciones, utilizando el servidor instalado para el
manejo del UDDI permitiendo la búsqueda e invocación de
servicios de otras aplicaciones con el sistema de becas.
Becas
Solicitudes
Informes
Reportes
Académico
La Figura 7 presenta el diagrama de componentes de la
aplicación, en él se especifican los servicios que se
identificaron, los mismos fueron implementados usando un
BSE para la integración de los servicios.
3.3.2.1 Becas
Este componente es responsable de:



Ingresar los datos de configuración del nuevo
semestre.
Realizar las consultas de las becas por periodo
académico: despliega los tipos de becas.
Modificar la configuración del periodo académico
actual
cmp ModeloServ icios
Becas
Reporte
+
+
+
+
+
+
+
+
configurarBeca(string, date) :void
consultarBacaPeriodo(date) :void
modificarConfiguraciónBeca(date) :void
requisitosXBeca() :void
estadoAcademico() :void
becasXPeriodo() :void
becasUnificado() :void
becaXFecha() :void
Solicitudes
Infome
+ efectivacionBeca() :void
+
+
+
+
+
+
+
+
registrar(Estudiante) :void
consulta(Estudiante) :void
aprobarComision(Estudiante) :void
negarComision() :void
validarComision() :void
imprimir() :void
generarActa() :void
requisitoestudianteXbeca() :void
Académico
+ consultarmatriculacion() :void
+ consultarAcademicaEst() :void
Figura 7. Modelo de servicios del sistema de asignación de becas
Fuente: Elaboración propia
Revista Politécnica- Marzo 2016, Vol. 36, No. 2
Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios
_________________________________________________________________________________________________________________________
3.3.2.2 Solicitudes
90
servicios UDDI y deben definirse de acuerdo con sus
instrucciones de publicación (Microsoft, 2014).
Este componente es responsable de:

La consulta de solicitudes mediante parámetros de
búsqueda (fechas de inicio, fecha de fin y período
académico).

Realizar el despliegue y registro de solicitudes en
grilla de datos.

Realizar una solicitud, para ello se requiere ingresar
los datos de los postulantes (datos personales,
dirección, tipos de becas, categoría, motivo de la
solicitud).

Ingreso de datos al proceso de becas para comisión

Generar acta por parte de la comisión
Los datos personales son cargados desde el sistema
académico mediante servicios web.
3.3.2.3 Informes
Este componente es responsable de emitir el informe de
efectivización de beca
Para publicar un servicio web se debe inicialmente crear su
proveedor. Este proveedor representa el grupo o la
organización responsable del servicio que está preparado para
publicar y se definirse de acuerdo con sus instrucciones de
publicación. Por ello, en este desarrollo, fue necesario
publicar un proveedor de servicios, agregar información de
contacto, agregar información de instancia.
3.4.2 Consumo y publicación de servicios web:
Para la creación de servicios web se realizó un manual de
procedimientos para el consumo de los servicios. Por
ejemplo, para el uso de los servicios web se debe solicitar una
autorización mediante el siguiente procedimiento:

Solicitar autorización para el consumo del servicio
web

Aprobar autorización para el consumo del servicio
web

Generar credenciales de acceso al servicio web

Probar el servicio web
3.3.2.4 Reportes pensión
3.4.3 Implementación de los servicios Web
Este componente es responsable de emitir reportes del estado
de las becas.
Se implementaron todos los servicios web especificados en
el modelo de servicios; para acceder la información que se
encuentra en otros sistemas de la PUCESI se usó el BSE
como herramienta para la integración. Finalmente la
aplicación se integró con las siguientes aplicaciones de la
institución.
3.3.2.5 Sistema académico
Este componente es responsable de:


Interactuar con el Sistema Académico, para obtener
información de la matriculación.
Obtener la oferta académica de los estudiantes,
docentes, personal administrativo.
3.4 Construcción de la aplicación






Servicios Web de períodos académicos
Estudiantes de pregrado
Datos de docentes
Datos de personal administrativo
Reporte de becas
Tipos de becas
Para la construcción de la aplicación fue necesario:
3.4.4 Ingreso al sistema
3.4.1 Publicar los servicios web
Para el ingreso al sistema es necesario inicialmente
autenticarse, si las credenciales del usuario son correctas se
accede a las funcionalidades del sistema según rol asignado.
Para la publicación de los servicios web se utilizaron
Servicios Web, y los estándares definidos en las AOS, XML
WSDL y UDDI.
Se requirió crear una nueva entidad de servicio dentro de su
proveedor. Este servicio representa el servicio web XML que
se publica en el directorio de servicios del UDDI y debe
definirse de acuerdo con sus instrucciones de publicación,
luego se creó el enlace a cada punto de acceso al servicio que
se publicó. Un punto de acceso es cualquier punto dentro de
la aplicación o el servicio Web donde se puede invocar una
función. El número de enlaces que se publique depende del
número de puntos de acceso que desee exponer mediante
La interfaz de la aplicación se asemeja a los formularios de
ventanas tipo Windows, en ella se le despliega en la barra
lateral izquierda las funcionalidades que usuario tiene
definidas para el rol con el cual ingresó, la acciones son
enviadas a en los diferentes subsistemas de la aplicación a
través de botones estándares La Figura 8 muestra un ejemplo
de la interfaz de la aplicación
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
91
Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3
_______________________________________________________________________________________________________________________________

Reporte de solicitudes con facturación
Permitir imprimir o exportar los datos de la
facturación y las solicitudes de los estudiantes
seleccionando el período académico.

Reporte de becas
Genera reportes, imprime o exporta de los tipos de
becas.
4. CONCLUSIONES Y TRABAJOS FUTUROS
Figura 8. Interfaz de la aplicación
Fuente: Elaboración propia
3.4.5. Otros componentes desarrollados
Adicionalmente a los componentes definidos en el modelo de
servicios se desarrollaron otros componentes
3.4.5.1 Módulo de administración de becas
El módulo de administración de becas debe permitir realizar
las configuraciones del sistema.
3.4.5.2 Notificación de solicitudes
Este módulo permite a la aplicación notificar la creación de
una solicitud de beca. Las notificaciones ser realizan a través
del envío de un correo electrónico.
En este trabajo se presenta el diseño de soluciones
tecnológicas utilizando un bus de servicios para la
integración de aplicaciones al área de asignación de becas en
instituciones educativas.
El bus permitió diseñar una arquitectura centralizada para la
administración de servicios, permitiendo resolver la
escalabilidad de conexiones entre aplicaciones de la
institución.
El diseño del sistema, permite la automatización del proceso
de la gestión y control de becas mediante la información
obtenida entre las dependencias que intervienen en dicho
proceso.
3.4.5.3 Configuraciones de usuarios
El sistema diseñado para el proceso de becas optimizó los
recursos humanos, tecnológicos, económicos y materiales, ya
que el sistema elimina la duplicidad de trabajo, manipulación
y error humano entre las dependencias.
Este módulo sirve para configurar y crear los diferentes tipos
de usuarios, además de permitir definir los roles y
funcionalidades que tendrá cada rol en el sistema, asociando
a cada usuario uno o más roles
Para darle continuidad a este trabajo, en un futuro se deben
definir los procedimientos y procesos de integración
mediante servicios web para la integración de nuevas
aplicaciones con el bus de servicios.
3.4.5.4 Informe y repostes
Integrar nuevas funcionalidades o módulos para la solicitud
de becas en línea
A continuación se listan los informes que se envían a la
comisión:
 Reporte pensión diferenciada por período
Permite imprimir o exportar los datos de la facturación
en el período académico en base a campos y parámetros
requeridos por estudiante.

Los autores desean agradecer a la Secretaría de Educación
Superior, Ciencia, Tecnología e Innovación del Ecuador y el
Programa Prometeo por su apoyo a esta investigación.
Reporte pensión diferenciada por fechas
Permite imprimir o exportar los datos de la facturación
de los estudiantes ingresando la fecha desde y hasta con
campos y parámetros requeridos.

AGRADECIMIENTO
Reporte pensión diferenciada por fechas y
período
Permite imprimir o exportar los datos de la facturación
de los estudiantes ingresando la fecha desde, fecha
hasta, período académico con campos requeridos.
REFERENCIAS
Bass, P. Clements, R. Kazman (2003) Software Architecture in Practice.. 2nd
Edition. Addison Wesley
Besteiro M. y Rodríguez M. (s.f.). WebService Obtenido de
http://www.ehu.eus/mrodriguez/archivos/csharppdf/ServiciosWeb/WebServi
ces.pdf
Calvo, J.; Gracia, J; Bayo, E. (2014). Aplicación web para el análisis y
diseño de estructuras. Informes de la Construcción.
Chappell, David (2004). Enterprise Service Bus: Theory in Practice. O'Reilly
Media Inc. Unite State of America.
Revista Politécnica- Septiembre 2015, Vol. 36, No. 2
Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios
_________________________________________________________________________________________________________________________
Corporation, M. (2010). Obtenido
/Downloads/070717-Real_World_SOA.pdf
de
file:///C:/Users/squishpe
Echeverría, Daily; Astudillo, Hernán; Estrada, Rodrigo (2008). ESB-QM:
Modelo de Calidad para productos ESBs. EIG 2008.
Enríquez, E. (2007). SOA (Arquitectura Orientada a Servicios). SOA
(Arquitectura Orientada a Servicios). Ibarra, Ecuador: Obtenido de
http://repositorio.utn.edu.ec/bitstream/123456789/587/1/CAPITULOS.pdf.
Huanzhuo Y.; Shuai C.; Fang, G.; Yuning, H. (2008). SOA-based conceptual
model for continuous auditing: A discussion. Conference. on APPLIED
COMPUTER & APPLIED COMPUTATIONAL SCIENCE (ACACOS '08),
400-405.
Ildapena.
(2009).
http://www.xperimentos.com.
Obtenido
de
http://www.xperimentos.com: http://www.xperimentos.com/2009/02/03/busde-integracion-de-servicios-corporativos-enterprise-service-bus/
IBM (2011) Introducción a SOA y servicios web. Obtenido de
https://www.ibm.com/developerworks/ssa/webservices/newto/
Microsoft. (2014). Overview of UDDI Services.
http://msdn.microsoft.com/en-us/library/cc731374.aspx
Obtenido
de
Pernalete, Doris; López, Maria Gertrudis; Montaño, Nora; Miguel, Vanessa
(2007). IMS – Learning Design y el Modelo Arquitectural de AMBAR. Pais
Vasco: SPDECE 2007.
Procesos
de
Negocios
(BPM)
(2006):
Obtenido
https://msaffirio.wordpress.com/2006/02/05/%C2%BFque-son-los-webservices/
de
Saffirio, M. (2006). Tecnologías de Información y Gestión de Procesos de
Negocios (BPM). Obtenido de Tecnologías de Información y Gestión de
The Open Group (2011) Service Oriented Architecture : SOA Reference
Architecture Technical Standard. Obtenido de www.opengroup.org/soa/
source-book/soa_refarch/
SNAP. (2014). CONSUMO DE SERVICIOS WEB (SW). Obtenido de:
http://www.administracionpublica.gob.ec/wp-content/uploads/downloads/
2014/08/Manual_de__Consumo_SW_en__BSG__V1.0_fin.pdf
Universidad de San Buenaventura. (s.f.). ARQUITECTURA SOA COMO
ESTRATEGIA DE ARTICULACIÓN DEL NEGOCIO Y LA
TECNOLOGÍA. Obtenido de http://www.usbmed.edu.co/index.php/
universidad/2-uncategorised/133-edcontinua-arquitectura-soa
W3C Consortium. Web Services Architecture.
Obtenido
http://www.w3.org/ TR /2004/NOTE-ws-arch-20040211/#whatis.
de
ZapThink, LLC. How to define a business service. Obtenido de
http://www.zapthink.com
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
92
Producción de Cursos Educativos Abiertos con Herramientas Sociales
_________________________________________________________________________________________________________________________
93
Producción de Cursos Educativos Abiertos con Herramientas
Sociales
Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1

1Universidad Técnica Particular de Loja, Departamento de Ciencias de la Computación y Electrónica, Loja, Ecuador
2Escuela Universitaria de Diseño, Innovación y Tecnología, Madrid, España
Resumen: Durante los últimos años se ha promovido con mayor intensidad la incorporación de nuevas
universidades al movimiento Open Course Ware (OCW) y esto ha permitido que cada día brinden a los usuarios
más posibilidades de aprendizaje on-line, mediante los cursos que publican. En el presente documento se define el
proceso de elaboración de un curso OCW utilizando la metodología Recursos Educativos Abiertos con
Componentes Sociales (REACS), su implementación en el Sitio OCW-UTPL en la plataforma EduCommons; así
como también se detallan los resultados obtenidos después de la implementación de la metodología.
Palabras clave: REA, OCW, Recursos Educativos Abiertos, REACS, Producción, Herramientas Sociales.
Production of Open Educational Courses with Social Tools
Abstract: During the past few years, the Open Course Ware (OCW) movement has been promoted in new
universities with great intensity, this has allowed to provide users more opportunities for learning on-line. The
present document defines the process of developing a course using the OCW Open Educational Resources with
Social Components (REACS) methodology, its implementation into the OCW Site-UTPL site with the
EduCommons platform; as well, the results obtained after the implementation of the methodology are detailed
Keywords: OER, OCW, Open Educational Resources, REACS, Production, Social tools.
1
gestión e interacción adecuada de la información para los
estudiantes.
1. INTRODUCCIÓN
Open Course Ware es la publicación de material educativo,
creado por docentes universitarios, donde los estudiantes y
personas en general pueden acceder a ellos de manera
gratuita, la publicación de este contenido se hace mediante el
uso de una plataforma que permite la gestión y
administración de cada uno de los cursos publicados en el
sitio. En el 2001 el Instituto Tecnológico de Massachusetts
(MIT) con la ayuda de la Fundación William and Flora
Hewlett2 y la Fundación Andrew W. Mellon lanzaron la
primera iniciativa del proyecto OpenCourseWare (OCW).
El presente artículo tiene como objetivo mostrar los
resultados de la implementación de una metodología, para la
creación de recursos educativos abiertos con componentes
colaborativos denominado (REACS) probado en Universidad
Técnica Particular de Loja, en el cual se pudo determinar con
resultados preliminares que se pudo disminuir el tiempo
empleado en la publicación de un curso, logrando así la
[email protected]
2. MARCO TEÓRICO
2.1 Recursos Educativos Abiertos
El Foro de la Unesco (Forum on the Impact of
OpenCourseWare for Higher Education in Developing
Countries Final report, 2002) sobre el impacto del material
educativo abierto en la educación superior en el 2002, definió
los Recursos Educativos Abiertos (REA) de la siguiente
manera: «[…] materiales en formato digital que se ofrecen de
manera gratuita y abierta para educadores, estudiantes y
autodidactas para su uso y re-uso en la enseñanza, el
aprendizaje y la investigación.» (Más allá de los contenidos:
compartiendo el diseño de los recursos educativos abiertos,
2007). Entre las características que poseen los recursos
educativos abiertos como menciona (Varlamis &
Apostolakis, 2006) se encuentran los siguientes:




Accesibilidad
Reusabilidad
Interoperabilidad
Sostenibilidad
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
94
Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1
_______________________________________________________________________________________________________________________________

Metadatos
2.2 Tipología de los REA
Existen tres tipos de REA como se menciona en el Foro
Interamerica
TIC´s y Educación Superior del 2009
(http://campus.oui-iohe.org/forotics/?p=14).



Moodle
10%
Open Course Ware: Proporcionan libre acceso a
materiales elaborados por instituciones educativas
particulares en contexto de enseñanza presencial.
Open Educational Resources Content: Proporciona
libre acceso a materiales de redes de instituciones
orientados a la enseñanza abierta, a distancia o
virtual.
Open Educacional Resources: Libre acceso a
contenidos con posibilidad de reelaboración de los
mismos.
2.3 Open Course Ware (OCW)
En Abril del 2001 el Instituto Tecnológico de Massachusetts
MIT en cooperación con la Fundación William and Flora
Hewlett y la Fundación Andrew W. Mellon dan a conocer su
iniciativa Open Course Ware.
Los OCW tienen como objetivo principal compartir el
contenido de los materiales de los cursos impartidos en las
universidades a través de la web, permitiendo así, que los
usuarios tengan un acceso libre a estos recursos de manera
gratuita. En el 2005 se creó el Open Course Ware
Consortium (OCWC, http://www.oeconsortium.org/), una
comunidad mundial formada por instituciones de educación
superior y otras organizaciones comprometidas con el avance
del OCW y su impacto en la educación; el OCWC a junio del
2015 cuenta con más de 280
organizaciones
(http://goo.gl/YBXGM7).
2.4 Plataformas para creación de OCW
El uso de una plataforma para la publicación de los cursos es
un requisito importante que utilizan las diferentes
instituciones; conforme ha crecido el proyecto, a lo largo de
estos años se han implementado nuevas plataformas para el
desarrollo de sitios OCW, entre las cuales se encuentran
Educommons, Moodle, Drupal, etc.
En (Borrás, 2010) se mencionan las plataformas de OCW
más utilizadas a nivel mundial representadas en la Figura 1.
3. PLANTEAMIENTO DEL PROBLEMA
Según (Centro de Nuevas Iniciativas, 2008); existen tres
razones importantes para usar, producir y compartir los REA,
dividiéndose en: motivos tecnológicos, económicos, sociales
y jurídicos.
Educommons
25%
Sin Publicar
37%
Otros
25%
Drupal
WordPress 2%
1%
Figura 1. Utilización de Plataformas OCW (Borrás, 2010)
La construcción de los REA, involucra el uso y reutilización
de recursos digitales como videos, textos, imágenes, etc.,
incluyendo el desarrollo de metadatos asociados a dichos
recursos, los cuales permiten el almacenamiento,
catalogación y búsqueda en repositorios, así como los
derechos de autor relacionados que determinan si pueden ser
consultados, utilizados o reeditados.
En (Velarde, Lozano, & Ramírez, 2009), se definieron los
aspectos necesarios para generar un modelo de OCW
innovador, centrándose en las aportaciones referentes al
diseño instruccional basado en e-learning, donde se
consideren las necesidades de implementación de acuerdo a
los requerimientos de los participantes, los recursos y guías
de utilización de los recursos; sugiriendose como punto de
partida para futuras investigaciones desarrollar, implementar
y evaluar dicha propuesta.
En la revisión bibliográfica sobre métodos de creación de
REA realizada por (Arimoto & Barbosa, 2012), se menciona
que existen pocos métodos sistemáticos para la creación y
aceptación adecuada de los REA; además se presta poca
atención a la adopción de las tecnologías como Web 2.0 y la
web semántica, pesar del gran potencial que tienen estas
tecnologías para contribuir eficazmente al desarrollo,
publicación y búsqueda de los REA las cuales han sido
consideradas únicamente en el método propuesto por
(Cueva, Rodríguez, & Romero, 2010).
De lo mencionado anteriormente se concluye que no existe
un proceso estandarizado de creación de OCW. Por lo cual,
este trabajo se centra en la aplicación de un proceso estándar
que incluya las mejores prácticas para la creación de los
recursos educativos utilizando herramientas sociales
denominado REACS.
4. METODOLOGÍA
Esta investigación consta de diferentes partes, la primera
consistió en la recolección de información teórica sobre los
REA en particular sobre los OCW y sus características, los
modelos de diseño instruccional, así como también un
análisis sobre los ciclos de producción de los OCW, cabe
destacar que algunas de las instituciones no tienen definido
una metodología para la producción de los OCW.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Producción de Cursos Educativos Abiertos con Herramientas Sociales
_________________________________________________________________________________________________________________________
Se ha considerado aplicar el ciclo de producción REACS
propuesto por realizado por (Cueva, Rodríguez, & Romero,
2010), el mismo que se basa en el modelo de diseño
instruccional ADDIE (análisis, diseño, desarrollo,
implementación y evaluación); luego se realizó la
implementación de la metodología y la evaluación que se
debería realizar utilizando el modelo de (Kirkpatrick &
Kirkpatrick, 2006); una vez puesto el curso a disposición de
los usuarios.
4.1 Propuesta para la creación de OCW con componentes
sociales
La metodología propuesta para la producción de cursos OCW
con componentes sociales REACS, se basa en las cinco fases
del modelo de diseño instruccional ADDIE; en cada una de
estas fases se incluirán componentes sociales.
Para cada una de las fases del modelo REACS se propone un
componente social, que dependerá de cada uno de los
propósitos establecidos como se muestra en la Figura 2.
4.2 Implementación de REACS
En este trabajo se ha seleccionado el curso de Ingeniería de
Requisitos de la titulación de Ingeniería en Informática de la
Universidad Técnica Particular de Loja para implementar el
ciclo de producción REACS, el mismo que se utilizó como
caso práctico en (Rojas & Cueva, 2014).
Primeramente se realizó una encuesta a los estudiantes con el
fin de determinar las necesidades que se quiere satisfacer con
los recursos que se obtendrían en las fases siguientes, así
mismo se realizó un bosquejo general de los datos del curso
OCW, se definieron el recurso humano y tecnológico que se
necesita para cumplir con los propósitos establecidos en las
fases de diseño, desarrollo, implementación y evaluación.
En la fase de diseño se establecieron los objetivos generales y
95
específicos del curso de Ingeniería de Requisitos, así como
las competencias que debe tener el estudiante que curse la
misma, se definieron el tipo de metadatos que se va utilizar,
así como también el tipo de licencia, etc.
Para la fase de desarrollo se determinó utilizar la herramienta
social Alfresco la cual permitió el trabajo colaborativo, la
organización
de
los
recursos
encontrados,
vez encontrados dichos recursos se procedió a calificarlos de
acuerdo a criterios de valoración establecidos en esta fase; en
un estudio realizado anteriormente se estableció utilizar la
plataforma Educommons para la creación y gestión de los
cursos.
Posteriormente en la fase de implementación se determinaron
los metadatos utilizados para el curso Ingeniería de
Requisitos, a continuación se realizó la instalación de la
plataforma, y las herramientas necesarias para la
implementación del curso.
Para cada una de las fases de la metodología REACS se
realizó la evaluación formativa en base a un modelo expuesto
por (Riera, et al., 2000), que consiste en un banco de
preguntas para cada una de las fases.
Después de finalizado el curso y puesto a disposición de los
estudiantes se realizó la evaluación sumativa basado en el
método propuesto por (Kirkpatrick & Kirkpatrick, 2006), el
cual está orientado a la evaluación de la formación recibida a
partir de encuestas realizadas a los estudiantes del curso.
Todo este proceso se representa en la Figura 3 y
seguidamente se especifica el mismo:
Fase de Análisis:
Propósito: Identificar la necesidad a satisfacer por el REA
desde el entorno ¿qué se necesita producir?, Identificar los
datos generales de un curso OCW, Determinar el recurso
humano y tecnológico.
Componente Social: Utilizar la herramienta colaborativa
Google Docs, debido a que tiene características para soportar
Figura 2. Ciclo de Producción (Cueva, Rodríguez, & Romero, 2010)
Figura 3. Diagrama del ciclo de Producción utilizando REACS
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
96
Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1
_______________________________________________________________________________________________________________________________
trabajo colaborativo (http://bit.ly/11U38mz), indexación de
contenido; además que en este ciclo de producción se
utilizarán herramientas online y/o de bajo costo para poder
reducir el costo de la producción de los OCW.
En esta fase son tres ítems los que se tomaron en cuenta: a)
Identificar la necesidad a satisfacer por el OCW, b)
identificar los datos generales de un curso OCW, c)
determinar el recurso humano y tecnológico.
Para identificar las necesidades a satisfacer por los recursos,
se desarrolló una encuesta sobre el conocimiento y acceso a
la información, utilizando la herramienta Google Docs, la
misma que permitió el envío del cuestionario y conocer la
opinión de los estudiantes/usuarios, frente a las herramientas
y servicios que posibilita el Internet, para la búsqueda,
recuperación y selección de información en el ambiente
académico.
Para la realización de la encuesta se tomó en cuenta el
número de estudiantes de la Titulación de Sistemas
Informáticos y Computación de la Universidad Técnica
Particular de Loja del periodo Abril-Agosto 2014, dando un
total de 349 alumnos que es el valor de la población. Una
vez obtenido este dato se utilizó la Ecuación (1) propuesta
por (Triola, 2012), para calcular el tamaño de la muestra
como se indica a continuación:
𝑛=
𝑍2𝜎2𝑁
(1)
𝑒 2 (𝑁−1)+ 𝑍 2 𝜎 2
Donde:
n= tamaño de la muestra
N= tamaño de la población (349)
σ = desviación estándar, sustituyendo (0,5)
Z = nivel de confianza, sustituyendo (1,96 = 95 %)
e = límite aceptable del error muestral (0,05)
Reemplazando los valores, el tamaño de la muestra a utilizar
para la realización de la encuesta se obtuvo el valor 183
estudiantes; luego de realizada la encuesta se obtuvieron a las
siguientes conclusiones:

El 46 % de los estudiantes se conecta a internet en
un periodo de 7 a 10 horas, principalmente por
entretenimiento y para conectarse con sus
compañeros.

En cuanto a las herramientas que utilizan los
estudiantes para reforzar los conocimientos el 32 %
de ellos utiliza Slideshare de la universidad, así
mismos el 46 % considera que los recursos
encontrados son buenos a diferencia del 16% que los
estima regulares.

Con respecto a los cursos OCW solo un 15 % de los
estudiantes tienen conocimientos y han usado los
mismos.
Con los resultados obtenidos, se observa la factibilidad para
la creación de cursos OCW considerando las aptitudes y el
alto nivel de acceso a internet que poseen los estudiantes;
además del exponencial crecimiento de instituciones que se
han unido al movimiento OCW.
En la Tabla 1 se describen los datos generales del curso de
Ingeniería de Requisitos.
Así mismo se determinó el recurso humano y tecnológico que
se requiere para la puesta en marcha del proyecto Tabla 2.
Fase de Diseño
Propósito: ¿Para qué? ¿Para quién? ¿Cómo? Definir
objetivos, contenidos, estructura, metadatos y licencias.
Componente Social: Utilizar para la fase de definición de
objetivos, contenidos base, estructura, categorización,
metadatos y licencias, herramientas sociales tipo wikis, blogs,
Google Docs.
En esta parte especificaron los objetivos de aprendizaje que
del curso, para ello se consideraron las temáticas y el plan de
estudio del curso Ingeniería de Requisitos, así como también
el perfil del estudiante, dado que ésta se encuentra en el 6to
ciclo del pensum de estudio, con lo cual se desarrolló el plan
de estudio y las competencias que requiere el estudiante, se
presenta la estructura general del curso, y como primer punto
el objetivo general de aprendizaje que este curso busca
alcanzar.
Objetivo General del curso: La asignatura se presenta como
una especialización al proceso de Ingeniería del Software en
la parte de Especificación de Requerimientos, permitiendo a
los estudiantes adquirir destrezas y habilidades en la captura
de las
Tabla 1. Datos Generales de un OCW
Título
Nombre del Curso
Descripción del Curso
Nivel del ciclo al que va
dirigido el Curso
Perfil del alumno
Objetivos de
aprendizaje
Contenido
El nombre del curso debe ser claro y
no tener ambigüedades
Descripción del contenido a impartir
Nivel del Ciclo
Está
relacionado
con
los
conocimientos previos del alumno
Competencias que se alcanzarán al
culminar el curso
Tabla 2. Recurso Humano y tecnológico para la creación de los cursos
Recurso Humano
Actor
Descripción
Docente (Autor)
Creadores del material didáctico
Encargado de buscar REA,
Equipo técnico
adaptar y publicar el curso
Evalúa el curso antes de que se
Docente (Evaluador)
publique
Recurso Tecnológico
1. Servidor
para
la
plataforma
Equipos de cómputo
2. Equipos
del personal
técnico
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Producción de Cursos Educativos Abiertos con Herramientas Sociales
_________________________________________________________________________________________________________________________
a) necesidades de los stakeholders en un proyecto de
desarrollo de software.
b) Actividades de aprendizaje: Se definieron las
actividades que se deben realizar de acuerdo al plan
de contenidos.
c)
97
Entorno de Aprendizaje que se va a utilizar para la
implementación del Curso OCW.
Componente Social:

Buscar y ubicar los recursos desde herramientas sociales.

Utilizar herramientas colaborativas como Google Docs,
Alfresco
(http://www.alfresco.com/)
para
la
compartición de los recursos encontrados.
Material del curso: En este aspecto para el curso
“Ingeniería de Requisitos” se consideró utilizar
contenidos digitales como: videos, presentaciones,
basándose en cada una de las unidades del curso,
para ello se dispuso buscar de forma manual cada
uno de estos recursos, tomando como base
herramientas sociales como: slideshare, youtube,
blogs, etc.
Lo primero que se realizó es un proceso de búsqueda manual,
para ubicar cada uno de los recursos que sirvan como
material de apoyo para el curso de Ingeniería de Requisitos;
para ello se utilizó la herramienta Alfresco que permite la
administración de los contenidos.
d) Contenido del curso: El contenido del OCW está
dado por categorías quedando como se indica en la
Tabla 3.
Luego se identificaron los recursos adecuados para cada una
de las unidades de estudio, seleccionándolos de acuerdo a los
siguientes criterios:
e)
Metadatos y Licencia: Estos metadatos, permiten la
identificación,
recuperación,
utilización
y
reutilización de un curso, es así que se ha definido
tres tipos de metadatos con los cuales se trabaja
basándose en el estándar Dublín Core como se
observa en la Tabla 4.
Es imprescindible la utilización de una licencia para el uso
del contenido y los recursos, es por ello que para la
publicación de los cursos en el sitio OCW-UTPL se usa la
Licencia
Creative
Commons
3.0
Ecuador
(http://creativecommons.org/licenses/by/3.0/ec/.)




Fase de Implementación
Propósito: Implementar, integrar y gestionar el curso OCW.
Componente Social:

Usar el Estándar de Agregación de Contenidos
SCORM para el empaquetamiento de los cursos.

Utilizar el gestor de contenidos EduCommons para
la publicación de los cursos.
Fase de Desarrollo
Propósito: Puesta en marcha del diseño, búsqueda de los
recursos para reforzar los contenidos del curso, Especificar el
Tabla 3. Categorías del contenido del curso
Categoría
Descripción
Formatos
Temario
Guía de aprendizaje propuesta y
.pdf
(Syllabus)
recomendada por el profesor,
plan del curso Ingeniería de
Requisitos
Lecturas
Bibliografía
base
y
.pdf
(Readings)
complementaria
.html
Laboratorios Actividades recomendadas para
.pdf
(Labs)
práctica
Exámenes
Autoevaluaciones
.pdf
(Exams)
Material de
Recursos Educativos Abiertos
.pdf
studio
(videos, presentaciones)
.pps
(Study
.flv
Materials)
Tabla 4. Metadatos del curso
Metadatos
Descripción
Título,
materia,
descripción,
Elementos de contenido
lenguaje
Autor, colaborador, derechos de
Propiedad intelectual
propiedad intelectual bajo licencia
Creative Commons
Elementos de aplicación Fecha, formato, identificación
Procedencia del contenido
Fecha de publicación
Valoración por el número de reproducciones
Licencia
El Estándar de Agregación de Contenidos SCORM permite el
empaquetamiento y distribución del material educativo en
cualquier momento, este estándar asegura que este material
sea accesible, reutilizable, interoperable y durable. Para el
empaquetamiento se utilizó un software generador de
paquetes SCORM, existen varios software que pueden ayudar
en esta actividad en este caso se usó Reload Editor
(http://www.reload.ac.uk/editor.html).
En esta fase se procede a la creación del curso utilizando el
sistema de gestión de contenidos Educommons y su
correspondiente empaquetamiento utilizando Reload Editor.
Fase de Evaluación
Propósito: Evaluar los cursos publicados tanto en diseño
como en contenido.
Componente Social: Utilizar herramientas sociales para la
difusión de los cursos, y para la evaluación de los resultados.
Aunque la Evaluación es la última fase de la metodología
REACS es un componente importante en cada una de las
cuatro fases anteriores, es por ello que se tomó en cuenta dos
tipos de evaluación: formativa y sumativa. La primera
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
98
Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1
_______________________________________________________________________________________________________________________________
consistió en evaluar cada una de las fases del modelo
utilizado, mientras que la segunda se fundamentó en evaluar
de manera global el curso ya implementado, es decir se
desarrolló una vez que se terminó el proceso de creación y
publicación del curso.
a)
b)
Evaluación Formativa: La evaluación formativa
brinda la posibilidad de que el diseñador pueda
realizar la evaluación en cada una de las fases de la
metodología. De este modo al conducir cada fase
del diseño instruccional, los procedimientos y
actividades pueden ser evaluados para asegurar que
se realicen en la manera más eficaz para asegurar
resultados óptimos. (Riera, et al., 2000). Para todos
los cursos en su evaluación formativa se deberá
utilizar la Tabla 5 expuesta por (Riera, et al., 2000),
en la cual se muestran algunas preguntas de
evaluación que se deberían realizar en cada una de
las fases del modelo.
Evaluación Sumativa: Una vez que se terminó con
todas las fases del modelo y consigo la publicación
del curso en el sitio OCW-UTPL, es necesario
realizar una evaluación donde los estudiantes
demuestren que han aprendido exitosamente el
Tabla 5. Evaluación Formativa (Riera, et al., 2000)
Acciones para la evaluación
1. ¿Se han recogido los datos para la
valoración del ambiente externo de la
organización?
Análisis
2. ¿Son los datos relacionados con las
necesidades de aprendizaje?
3. ¿Está completo el contenido propuesto del
curso?
4. ¿Corresponden los resultados del curso a los
requerimientos identificados previamente?
5. ¿Corresponde el plan de evaluación a los
Diseño
objetivos?
6. ¿Los materiales facilitan el cumplimiento de
los objetivos?
7. ¿Corresponden los materiales de aprendizaje
a los resultados, plan de actividades y
especificaciones formuladas previamente?
8. ¿Es amigable el ambiente en línea de
Desarrollo
aprendizaje?, ¿Facilita el aprendizaje?
9. ¿Facilitarán las actividades el aprendizaje de
los participantes?
10. ¿Ayudan eficazmente los materiales
multimedia en el aprendizaje?
11. ¿Es adecuado el ambiente de aprendizaje en
línea?
12. ¿Lograron los participantes los resultados
esperados?
13. ¿Qué cambios son necesarios para mejorar
Implemenla eficacia de los recursos de aprendizaje?
tación
14. ¿Qué tanto provee el docente en la
orientación, consejo y soporte al estudiante?
15. ¿Están satisfechos los estudiantes con sus
experiencias de aprendizaje?
16. A partir de los resultados de evaluación,
¿cómo debe cambiar la metodología?
17. ¿Los medios de evaluación que se
escogieron son los apropiados para esta
Evaluación
metodología?
18. ¿Son válidos y confiables los instrumentos
de evaluación?
Fase
aprendizaje deseado. Por tal razón se deben evaluar
los resultados de la participación en el curso, para
ello se debería utilizar el modelo propuesto por
(Kirkpatrick & Kirkpatrick, 2006).
5. COMPARACIÓN DEL TIEMPO EMPLEADO EN LA
CREACIÓN DEL CURSO
Con respecto a la evaluación de éste parámetro, se realizó
una comparación entre la publicación del material sin
utilizar ninguna metodología y haciendo uso de ella, para
la primera parte se realizó dos entrevistas, la primera
dirigida a los docentes creadores del material de estudio
la misma que consistía en una pregunta que contemplaba
el tiempo estimado que ellos utilizaron en crear el
contenido del curso a lo que ellos le denominan guía de
aprendizaje tomando en cuenta lo siguiente:

El tiempo asignado diariamente para el desarrollo de
la guía.

El dominio que se tiene sobre la materia que se va a
realizar la guía.
Obteniendo como resultado una media de dos meses para
la realización del material.
La segunda entrevista se la realizó al administrador del
sitio OCW-UTPL quien era el encargado de la
publicación de los cursos; ésta entrevista consistió en
determinar el tiempo empleado en: dividir la guía en
unidades, búsqueda de recursos, autoría del material
(Licencia Creative Commons), subida del material,
creación de páginas con contenido (estructura del curso);
todos estos parámetros dependían de cuantas unidades
contiene el curso, es decir entre más material de estudio
más tiempo se empleaba; de acuerdo a la entrevista
realizada; seguidamente se procedió a realizar una
entrevista al equipo de trabajo que utilizó la metodología
REACS, cuya comparación se puede observar en la
Tabla 6.
Con la comparación realizada se puede deducir que con
el uso de la metodología la publicación de un curso se lo
Tabla 6. Comparativa del tiempo empleado en la creación y
publicación del curso
Tarea
Sin metodología
Metodología
Material de estudio
2 meses
2 meses
(guía)
División de la guía
8 horas
3 horas
(Formato)
Búsqueda de recursos
5 horas
3 horas
Autoría del material
(Licencia Creative
2 horas
1 horas
Commons)
Empaquetamiento
----30 minutos
Subida del material
1 horas
10 minutos
Creación de páginas con
contenido (estructura del
6 horas
2 horas
curso)
Publicación del curso
30 minutos
30 minutos
2 meses con tres
2 meses con
Tiempo aproximado
días
1.5 días
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Producción de Cursos Educativos Abiertos con Herramientas Sociales
_________________________________________________________________________________________________________________________
puede efectuar con un 50 % de tiempo menos que significaría
un tiempo a favor de las personas encargadas del proceso de
publicación, es decir que si antes subían un curso en ese
tiempo, ahora lograrían subir dos cursos al sitio OCW de la
universidad porque todas las tareas que implican la subida del
material estarán reducidas a la mitad.
99

Producir nuevos recursos OCW siguiendo el ciclo
propuesto REACS en instituciones de Educación
Superior.

Adaptar el uso de herramientas y plataformas que se
sugieren en el ciclo de producción de REACS de
acuerdo a las políticas institucionales.

Desarrollar un software que
implementación de REACS.
6. CONCLUSIONES Y TRABAJOS FUTUROS
Los OCW constituyen un medio por el cual las Universidades
ponen a disposición materiales gratuitos creados por sus
docentes con el objetivo de brindar acceso abierto al
conocimiento; los
cuales sirven como
material
complementario para sus estudiantes y por su naturaleza de
abiertos constituyen un complemento para el aprendizaje de
otras personas como parte de su formación continua.
A partir de la investigación realizada sobre los diferentes
sitios OCW de las universidades se recopiló información
necesaria que permitió encontrar diferentes componentes que
forman parte de un curso OCW para plasmarlo en una
plantilla, que al final se utilizó para describir la estructura y
contenido de un curso.
En base a la búsqueda y análisis de los diferentes modelos de
diseño instruccional se optó por utilizar la metodología
REACS (Recursos Educativos con Componentes Sociales)
que está basada en el modelo instruccional ADDIE,
incorporando un componente social en cada una de ellas, la
misma que permite mejorar los tiempos de producción de un
curso OCW.
REACS está basado en el modelo de diseño instruccional
ADDIE el cual exige componentes de valoración y calidad
propios del contexto Educativo.
Con el uso de esta metodología se pretende facilitar el
proceso de producción de los cursos OCW poniendo énfasis
en la utilización de herramientas colaborativas que posibilitan
la inteligencia colectiva y así mismo impulsa a los docentes
de la universidad a que incursionen en este tipo de proyectos
que ayudan tanto a las personas que lo elaboran como a los
usuarios (estudiantes) que lo utilizan.
De acuerdo a la comparación realizada sobre los tiempos
empleados en la producción de los cursos, se obtuvieron
como resultados preliminares, que el uso de una metodología
es eficiente ayudando a las personas encargadas del proceso
de creación y publicación a disminuir el tiempo en un 50 %;
esto es gracias al desarrollo colectivo y la sinergia que existe
entre las personas que conforman el equipo de trabajo.
El éxito de la aplicación del Modelo depende del contexto
institucional en el que se implemente, así como de las
políticas referentes a generación de contenidos,
reconocimiento de autores y difusión de los recursos.
apoye
en
la
RECONOCIMIENTO
Este trabajo se ha desarrollado parcialmente gracias al
financiamiento de SENESCYT del Ecuador y de la
Universidad Técnica Particular de Loja.
REFERENCIAS
Arimoto, M., & Barbosa, E. (2012). A systematic review of methods for
developing open educational resources. 20th International Conference on
Computers in Education (ICCE). Singapore.
Borrás, O. (2010). Observatorio de Plataformas para OCW, Universidad
Politecnica
de
Madrid.
Obtenido
de
http://ocw.upm.es/documentacion/estudio-utilizacion-deplataformas-paraopencourseware-2010
Centro de Nuevas Iniciativas. (2008). El conocimiento libre y los recursos
educativos abiertos. España: Junta de Extremadura.
Cueva, S. P., Rodríguez, G., & Romero, A. (2010). OER's production cycle
with social authorship and semantic tools. IEEE Education Engineering
(EDUCON) (págs. 121-128). Madrid: IEEExplore.
Forum on the Impact of OpenCourseWare for Higher Education in
Developing
Countries
Final
report.
(2002).
Obtenido
de
htttp://unesdoc.unesco.or/images/0012/001285/12851e.pdf
Kirkpatrick, D., & Kirkpatrick, J. (2006). Evaluating Training Programs:
The Four Levels. Berrett-Koehler Publishers.
Más allá de los contenidos: compartiendo el diseño de los recursos
educativos abiertos. (2007). Revista de Universidad y Sociedad del
Conocimiento, 4(1), 26-35.
Riera, B., Martí, C., Colares, J., Ordinas, C., Torrandell, I., & Montilla, X. P.
(2000). Procesos de diseño de materiales educativos multimedia. II Jornadas
Multimedia Educativo. Barcelona.
Rodríguez, G., Cueva, S., Feijoo, L., & Marbán, Ó. (2014). Implementation
of social technologies for Open Course Ware OCW platforms. 9th Iberian
Conference on Information Systems and Technologies (CISTI). Barcelona.
Rojas, C., & Cueva, S. (2014). Creación de Recursos Educativos Abiertos
con Herramientas Colaborativas. Loja: UTPL.
Triola, M. (2012). Elementary Statistics. Pearson.
Varlamis, I., & Apostolakis, I. (2006). The Present and Future of Standards
for E-Learning Technologies. Interdisciplinary Journal of Knowledge and
Learning Objects, 2, 59-72.
Velarde, M., Lozano, F., & Ramírez, M. (2009). Aportes para la generación
de un modelo operativo innovador de Open Course Ware (OCW). IV
Congreso Nacional de Posgrados en Educación. Guanajuato.
Como trabajos futuros se pueden considerar a:
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
An approximation to Household Overcrowding: Evidence from Ecuador
_________________________________________________________________________________________________________________________
100
An approximation to Household Overcrowding:
Evidence from Ecuador
Díaz Juan Pablo1; Romaní Javier2

1Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador
2 Universidad de Barcelona, Facultad de Economía y Empresa, Barcelona, España
Abstract: This paper addresses the household overcrowding problem. To do so, a binary choice model with logit
specification is constructed. The cross section data used in the empirical analysis comes from Ecuador which is a
developing South American country. Although, household overcrowding has more incidence in developing
countries, it also takes place in developed economies. The findings of the research suggest that a set of variables
related to the head of the household like his/her gender, age, and level of education affect the probability of being
under overcrowding situation in the household. Furthermore, the regime of tenancy under which the household is
living in the dwelling also influences the probability of being in overcrowding situation.
Key words: Ecuador, household overcrowding, crowding, logit modelling.
Una aproximación al Hacinamiento de Hogares:
Evidencia del Ecuador
Resumen: En este trabajo se aborda el problema de hacinamiento de los hogares. Para ello, un modelo de elección
binaria con especificación logit es construido. Los datos de corte transversal utilizadas en el análisis empírico
proviene de Ecuador, que es un país en desarrollo de América del Sur. Aunque, el hacinamiento de los hogares
tiene más incidencia en los países en desarrollo, también tiene lugar en las economías desarrolladas. Los resultados
de la investigación sugieren que un conjunto de variables relacionadas con el jefe de la familia como su sexo, edad
y nivel de educación afecta a la probabilidad de estar en situación de hacinamiento en el hogar. Por otra parte, el
régimen de tenencia en las que la familia está viviendo en la vivienda también influye en la probabilidad de estar en
situación de hacinamiento.
Palabras clave: Ecuador, hacinamiento de los hogares, modelación logit.
1
1. INTRODUCTION
The concern in the high levels of population density had its
boom during the 60’s and 70’s. Obviously, the idea was to
study not only its causes but also its effects. Indeed, as
Baldassare (1978) proved, a large number of factors led to
believe to a substantial part of the scientific community and
most of the general population that a high level of density, in
terms of people, has serious detrimental effects on humans.
The majority of these studies focused on the effects of high
levels of people density on human behavior. From these
studies, it was clear that it was necessary to distinguish
between density at the level of macro-environment (people
per hectare, for example) and crowding in the microenvironment, such as crowding in home (Carnahan et al.,
1974; Galle and Gove, 1978).
Recently, it seems like the interest in the high levels of
density of people has come back. For example Marx and
Stoker (2013), referring to slums, which are informal
[email protected]
settlements in and around cities in the developing countries,
estimates that 450 million new housing units would be
needed in the next 20 years just for accommodating
households in urgent need of housing due to the increase of
migrants to the existing slum populations. Said so, it is clear
that there is a strong correlation between poverty and high
density of people in the house. Indeed, one of the most used
methodologies for measuring poverty, especially in Latin
America, the Unsatisfied Basic Needs (UBNS) method uses
as an indicator for determining a poverty situation the fact
that there are more than three people per room in the house.
In this paper, authors focus on the household crowding.
According to Lawton (1961), household crowding is a
difficult concept to express since acceptable standards of
intensity of household occupancy vary from time to time,
from place to place and as between social classes. Moreover,
indices of crowding can be selected from a variety of census
data, including the number of people, the number of rooms,
the number of households and the number of dwellings of
various sizes. The most extended index for approaching to
household crowding is the people per room measure: a
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
101
Díaz Juan Pablo1; Romaní Javier2
_______________________________________________________________________________________________________________________________
household is considered in a crowding situation if there are
more than three people per bedroom; however, this index
presents limitations as a measure of intense of occupancy
since it does not take into account the size of the household
(for example, a household formed by 10 people and 5 rooms
is not ¨crowded,¨ meanwhile a household formed by 3 people
and 1 room is) neither their particular needs which lead to a
collective generalization. Despite these inconveniences, this
measure of crowding gives us an idea about the particularities
of the household and the society.
This paper is composed as follows; first, it is presented a
review of the literature about the household crowding.
Secondly, the methodology that is used in the empirical
analysis is presented, basically binary choice models. Then, it
is shown an empirical analysis using cross section data about
the probability of being in a household crowding situation.
The condition that tells us if a household is in a crowding
situation is if there are more than three people per bedroom in
the household. The data is from Ecuador which is a
developing country located in the North West part of South
America. After that, it is discussed the results obtained in the
estimates. Finally, some conclusions are presented.
2. LITERATURE REVIEW
In general terms, there are several factors that contribute to
the household crowding. First, there is the demographic
factor which is basically represented by the vegetative
population growth rate and migrations. Second, the physical
factors of the dwelling and its environment. Finally, the
social factor also plays an important role. As physical factors
of the house one can point out the design of the dwelling, the
habitability of the construction, the sanitary situation,
conditions of the settlement place and the physical channels
of social integration like roads, nearly schools and so on. The
social factor refers to the housing density and tenancy
regime. The housing density is the relationship between the
number of people and the available space. As a matter of fact,
the housing density becomes crowding when this relationship
between people and available space exceeds a tolerable limit.
On the other hand, the tenancy regime is related to the
condition of ownership for the people living in a certain
house like owner, renter, usurper or borrower (Puga, 1983).
It is important to mention that there are several approaches to
measure crowding. For example, people per bed, people per
bedroom, families per dwelling, and dwellings per piece of
land (Iglesias de Usel, 1993). Another indicator for
measuring the intensive usage of the space is the quantity of
square meters per person. It is important to say this because
authors want to point out that there is not a unique form to
define crowding. Indeed, the threshold from which it can be
considered an intensive usage of the space varies according
to the level of development of societies, cultural and
historical realities.
The theoretical literature on the consequences of crowding on
individuals basically focuses on physical and psychological
repercussions. About the physical effects, crowding could be
a determinant factor for illness propagation not only in
developing countries, but also in the developed ones. For
instance, Baker et al. (2008) proved that Tuberculosis
incidence in New Zealand is associated with household
crowding. Moreover, an alarming fact about the crowding is
that it especially affects children in their growing-up and
development processes. Furthermore, according to Iglesias de
Usel (1993) and Puga (1983) there are causal relationships
between crowding and low test score performing and high
juvenile crime rate.
Regarding the psychological effects researchers have
determined two main alterations in crowding situations: lack
of privacy and easiness of circulation (Lentini, 1997).
Regarding the privacy, it is clear that it is a required good for
a person, for couples (father-mother), for gender separation,
for the family as an independent social unity and for certain
family activities such as sleeping, studying, etc. About the
easiness of circulation, it allows the normal fulfillment of the
family functions by avoiding the interferences to the freedom
of circulation or the unexpected intrusions. The lack of both,
privacy and easiness of circulation, creates an environment in
which the members of the household may be exposed to
higher levels of psychological stress than those who are not
living under this condition.
Until now, it has been said that there are at least two main
dimensions that help us to understand crowding in
households: number of individuals in the household and the
dwelling itself. Regarding the number of individuals
compounding a household, there are a great number of
published papers that contributes to understand the size of the
household. For example, Bongaarts (2001) published a study
that uses data from household surveys in 43 developing
countries to describe the main dimensions of household size
and their composition in the developing world. He found that
the average household size varies only modestly among
regions, ranging from 5.6 in the Near East/North Africa to
4.8 in Latin America. These averages are similar to levels
observed in the second half of the nineteenth century in
Europe and North America. Moreover, he observed that
about four out of five members of the household are part of
the nuclear family of the head of the household. In addition,
Bongaarts suggests that household size is found to be
positively associated with the level of fertility and the mean
age at marriage, and inversely associated with the level of
marital disruption. An analysis of trends and differentials in
household size suggests that convergence to smaller and
predominantly nuclear households is proceeding slowly in
contemporary developing countries.
Regarding the associated effects of the size of the household,
Lanjouw and Ravallion (1995) point out that there is
considerable evidence of a strong negative correlation
between household size and consumption (or income) per
person in developing countries. It is often concluded that
people living in larger and (generally) younger households
are typically poorer. There has been much debate on which is
the 'cause' and which is the 'effect' in this correlation. The
position one takes in this debate can have implications for
policy, including the role of population policy in
development, and the scope for fighting poverty using
demographically contingent transfers. In addition, they
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
An approximation to Household Overcrowding: Evidence from Ecuador
_________________________________________________________________________________________________________________________
suggest that the existence of size economies in household
consumption cautions against concluding that larger families
tend to be poorer. The poor tend to devote a high share of
their budget to rival goods such as food. But certain goods
(water taps, cooking utensils, firewood, clothing, and
housing) do allow possibilities for sharing or bulk purchase
such that the cost per person of a given standard of living is
lower when individuals live together than apart.
About the variables explaining the size of the households,
one can found studies that use, for example, demographic
variables. That is the case of Burch (1970) who investigates
the influence of demographic variables (viz., mortality,
fertility, age at marriage) on average household size under
different family systems-nuclear, extended and stem. His
study suggests that under all family systems, average
household size is positively correlated with fertility, life
expectancy, and average age at marriage. Households under
nuclear and stem family systems never exceed 10 persons on
average. By contrast, under extended family systems, when
mortality is low and fertility is high, average household size
reaches levels seldom if ever observed in reality, e.g., 25
persons per household. Large households under the extended
family system also tend to be fairly complex, often
containing 5 or more adults. A number of modifications in
the model would make for greater fit between model and real
family systems. A more fruitful approach would involve the
simulation of household formation and development.
With respect to the types or forms of household crowding, as
it has been said above, there is not a unique unit of measure
for it. However, the most extended measure is the people per
room. Despite of its limitations, which are basically not
considering the size of the household neither their specific
needs, it is helpful to draw an aggregate picture of the
phenomenon. In that sense, Lentini (1997) categorizes as
semi-critical crowding when there are more than two people
per bedroom and as critical crowding when there are more
than three people per bedroom.
3. METHODOLOGY
Authors will use the framework of the binary choice models
for our empirical analysis. According to Verbeek (2004),
binary choice models (or univariate dichotomous models) are
designed to model the ‘choice’ between two discrete
alternatives. These models essentially describe the
probability that yi = 1directly. In general, Equation (1):
𝑃{𝑣𝑖 = 1⎸𝑥𝑖 } = 𝐺(𝑥𝑖 , 𝛽)
(1)
for some function G(.). This equation says that the
probability of having yi = 1 depends on the vector xi
containing individual characteristics. So, just for giving an
example, the probability that a household is in a crowding
situation depends on its income, head-of-the-house education
level, age and marital status. Clearly, the function G(.) should
take values in the interval [0, 1] only. Usually, one restricts
attention to functions of the form G(xi,β) = F(x´iβ). As F(.)
also has to be between 0 and 1, it seems natural to choose F
102
to be some distribution function. Common choices are the
standard normal distribution function, Equation (2):
w
𝐹(𝑤) = φ(w) = ∫−∞
1
1
√2π
exp {− t 2 } dt
2
(2)
Leading to the probit model, and the standard logistic
distribution function, given by Equation (3):
𝑒𝑤
𝐹(𝑤) = 𝐿(𝑤) = 1+𝑒 𝑤
(3)
Which results in the logit model. There is also a third option
besides the probit and logit models, the linear probability
model; however, the logit and probit are more common in
applied work.
Both, a standard normal and a standard logistic random
variable have an expectation of zero, while the linear
probability has a variance of π2/3 instead of 1. These two
distribution functions are very similar if one corrects for this
difference in scaling; the logistic distribution has slightly
heavier tails. Indeed, the probit and logit models typically
yield very similar results in empirical work. Moreover, apart
from their signs, the coefficients in these binary choice
models are not easy to interpret directly.
Regarding the estimation and always according to Verbeek
(2004), in general, the likelihood contribution of observation
i with yi= 1 is given by P{yi= 1|xi} as a function of the
unknown parameter vector β, and similarly for yi= 0. The
likelihood function for the entire sample is thus given by
Equation (4):
𝑦𝑖
1−𝑦𝑖
𝐿(𝛽) = ∏𝑁
𝑖=1 𝑃{𝑦𝑖 = 1 |𝑥𝑖 ; 𝛽} 𝑃{𝑦𝑖 = 0|𝑥𝑖 ; 𝛽}
(4)
Where β is included in the Equations for the probabilities to
stress that the likelihood function is a function of β. It is
preferred to work with the loglikelihood function.
Substituting P{yi= 1|xi ; β} = F(x´iβ), as seen Equation (5):
′
𝑁
′
log 𝐿(𝛽) = ∑𝑁
𝑖=1 𝑦𝑖 log 𝐹(𝑥𝑖 𝛽) + ∑𝑖=1(1 − 𝑦𝑖 ) log(1 − 𝐹(𝑥𝑖 𝛽)) (5)
Substituting the appropriate form for F gives an Equation that
can be maximized with respect to β. As previously said, the
values of β and their interpretation depend upon the
distribution function that is chosen.
Consequently, let`s consider the first order conditions of the
maximum likelihood problem. Differentiating the previous
equation with respect to β yields, Equation (6):
𝛿𝑙𝑜𝑔 𝐿(𝛽)
𝛿𝛽
= ∑𝑁
𝑖=1 [
𝑦𝑖 −𝐹(𝑥𝑖′ 𝛽)
′
𝐹(𝑥𝑖 𝛽)(1−𝐹(𝑥𝑖′ 𝛽))
𝑓(𝑥𝑖′ 𝛽)] 𝑥𝑖 = 0
(6)
Where f = F´ is the derivative of the distribution function (so
f is the density function).The term in square brackets is often
referred to as the generalized residual of the model. It equals
f(x’iβ)/F(x’iβ) for the positive observations (yi= 1) and -
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
103
Díaz Juan Pablo1; Romaní Javier2
_______________________________________________________________________________________________________________________________
f(x’iβ)/(1 − F(x’iβ)) for the zero observations (yi= 0). The
first order conditions thus say that each explanatory variable
should be orthogonal to the generalized residual (over the
whole sample). This is comparable to the OLS first order
conditions which state that the least squares residuals are
orthogonal to each variable in xi.
For the logit model, one can simplify the Equation in (7) to
𝛿𝑙𝑜𝑔 𝐿(𝛽)
𝛿𝛽
= ∑𝑁
𝑖=1 [𝑦𝑖 −
exp(𝑥𝑖′ 𝛽)
] 𝑥𝑖 = 0
1+exp(𝑥𝑖′ 𝛽)
(7)
Furthermore, for the probit model
𝛿ln{𝐿(𝛽)}
𝛿𝛽
∑𝑦 =1 𝜆1𝑖 𝑥𝑖
𝑖
= ∑𝑦𝑖 =0
−𝜑𝑖
1−𝛷𝑖
𝑥𝑖 + ∑𝑦𝑖 =1
𝑞𝑖 𝜑(𝑞𝑖𝑥′𝑖𝛽)
= ∑𝑛𝑖=1 (
𝛷(𝑞𝑖𝑥′𝑖𝛽)
) 𝑥𝑖
𝜑𝑖
𝑥
𝛷𝑖 𝑖
= ∑𝑦𝑖 =0 𝜆0𝑖 𝑥𝑖 +
= ∑𝑛𝑖=1 𝜆𝑖 𝑥𝑖 = 0;
(8)
With qi=2yi – 1. The solution of the Equation in (8) is the
maximum likelihood estimator 𝛽̂ . From this estimate, it is
possible to estimate the probability that yi= 1 for a given xi as
seen Equation (9):
𝑝̂𝑖 =
exp(𝑥𝑖′ 𝛽)
1+exp(𝑥𝑖′ 𝛽)
;𝑖 = 1…𝑛
(9)
Consequently, the first order conditions for the logit model
imply that, Equation (10):
∑𝑁
̂𝑖 𝑥𝑖 = ∑𝑁
𝑖=1 𝑝
𝑖=1 𝑦𝑖 𝑥𝑖
(10)
Thus, if xi contains a constant term (and there is no reason
why it should not), then the sum of the estimated
probabilities is equal to ∑iyi or the number of observations in
the sample for which yi= 1. In other words, the predicted
frequency is equal to the actual frequency. Similarly, if xi
includes a dummy variable, say 1 for females, 0 for males,
then the predicted frequency will be equal to the actual
frequency for each gender group. Although a similar result
does not hold exactly for the probit model, it does hold
approximately by virtue of the similarity of the logit and
probit model.
Taking into account that in the empirical work both, logit and
probit specifications yields similar results, in this paper,
authors will use the logit specification; however, this does not
mean that the probit specification does not present also good
estimations.
Data and variables. Data from the Survey of Conditions of
Life (Encuesta de Condiciones de Vida) from Ecuador
(INEC, 2006) is used that provides information of 13.536
households in Ecuador for our empirical analysis. The
objectives of this survey were to measure the impact of the
macroeconomic adjust policies and the social compensation
on the households, to create monetary and non-monetary
measures about the welfare distribution and the level of
poorness of the households, to generate an actualized base
line and useful to measure the accomplishment of the
Millennium Development Goals and Objectives, and to
simplify the formulation of public policies that tend to
reduce the levels of poorness of the population.
Authors will use the information of the fifth round of the
survey which collected the information between November
2005 and October 2006. Considering the 13.536 households
that provided information, 8.028 of them are located in an
urban area which represents the 59% of the sample;
meanwhile, the remaining 5.508 households were from rural
areas which represent the 41% of the sample. In addition, the
information was collected from 1128 census sectors in where
12 households per sector supplied information (12 x 1128 =
13.536). It covers all the provinces of the Ecuadorean
continental territory.
It is important to mention that this survey is a postdollarization instrument. Briefly speaking, Ecuador had a
severe economic crisis in 1998 that led to an emigration wave
that, according estimations, caused millions of Ecuadoreans
to leave their country. As a policy of stabilization,
dollarization of the economy was implemented in 2000,
which brought a stable economic scenario (Acosta, 2012).
Once the methodology and the data source have been
defined, it is time to define the condition under which a
household can be considered overcrowded or not for our
empirical analysis. According to CEPAL (2001) (Comisión
Económica para América Latina y el Caribe) and several
other authors like Lentini (1997), authors will characterize
overcrowding as it is done in most extended and accepted
measure, meaning that a household will be overcrowded if
there are more than three people per bedroom.
On the other hand, a household will not be crowded if this
condition is not fulfilled. Since the condition is reflected in
the output variable yi of the binary logit model, it will take
the value of 1 if the overcrowding condition is fulfilled (in
other words, if the household is crowded, then yi=1);
otherwise, the dependent variable takes the value of 0 if the
crowding condition is not fulfilled (yi=0). By doing so, it is
obtained that the 58.1% of the sample (7897 observations)
fulfill the overcrowding condition and the 41.9% do not
(5684 observations).
Considering the information available in the data base and
the literature reviewed, it is included in the model
specification several explanatory variables that are supported
in previous researches. In that sense, a set of independent
variables that collects information of the head of the
household is included. The idea behind these inclusions is to
characterize the person who runs the household and, if it is
possible, suggest public policies that contribute to overcome
the overcrowding condition. Considering the head of the
household as the core unit in the analysis of overcrowding is
an extended practice in the applied work as it is showed in
Bongaarts (2001). Furthermore, since Puga (1983) proved
that the regime of tenancy of the dwelling is a vital
dimension in the household overcrowding as a social factor,
authors also include a variable that collects this information.
Additionally, a variable that presents information of the
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
An approximation to Household Overcrowding: Evidence from Ecuador
_________________________________________________________________________________________________________________________
settlement place, which in Puga (1983) called as physical
factor, is included in the estimation.
Then, the estimation of the probability that
model is given by Equation (11):
𝑃𝑟𝑜𝑏(𝑌𝑖 = 1) =
𝑒𝑧
1+ 𝑒 𝑧
for the logit
(11)
where:
𝑧 = 𝛽0 + 𝛽1 𝐴𝑟𝑒𝑎𝑖 + 𝛽2 𝐺𝑒𝑛𝑑𝑒𝑟𝑖 + 𝛽3 𝐴𝑔𝑒𝑖 + 𝛽4 𝐴𝑔𝑒𝑆𝑞𝑖
+𝛽5 𝐸𝑑𝑢𝑐𝑖 + 𝛽6 𝐸𝑡ℎ𝑛𝑖𝑐𝑖 + 𝛽7 𝐻𝐷𝐵𝑖 + 𝛽8 𝑇𝑒𝑛𝑎𝑛𝑐𝑦𝑖
For i = 1… 13.536. Where Yi is the dichotomous variable
explained above;
β0 is the constant term in the estimation;
Area is a dummy variable for the area in which the household
is located. It takes the value of 1 if the household is settled in
the urban area or 0 otherwise. Fixing rural as the reference
category, it is expected to get a negative sign in the estimated
parameter since it is thought that a household located in the
urban area has less probability of being overcrowded than a
one with the same characteristics located in the country side;
Gender is another dummy variable for the gender of the head
of the household. It takes the value of 1 if the head of the
household is a man or 0 in the case of being a woman. Fixing
as reference category being a woman, the expected sign of
the estimated parameter is negative since one could think
that a household in which the head of the household is a man
has less probability of being overcrowded than a household
in which the head of the household is a woman under similar
conditions. This assumption is supported in the well
documented evidence in the literature that women have less
income than men by doing the same job or having the same
position as De Cabo (2007) proved, so it is expected that this
could influence in the reduction of probability that a man as a
head of the household being in an overcrowded situation
compared to a woman;
Age and AgeSq are the age and the aged squared of the head
of the household. It is expected to get a positive sign in the
first one and a negative sign in the estimation of these
parameters. The idea behind this expectation is that as the
head of the household gets older, the number of members of
the household increases until a certain point in which the
members start to leave the house meaning that the effect of
the age on the probability of being overcrowded has an
inverted u shape. On the other hand, if our expectation is
wrong, that would suggest that the older the head of the
household, the more the number of members in it. It would
evidence that the other members of the household do not
leave the house as the time passes but they bring new
members to the home;
Educ is the level of education of the head of the household. It
is measured in years attended to formal education. Indeed,
this variable works also as a proxy of the level of income of
104
the head of the household since it is well documented in the
literature about the strong correlation between education and
income;
Ethnic is a categorical variable of the ethnic selfidentification of the head of the household. It is fixed as
reference category ‘indigenous,’ so the other categories
(mestizo2, white, black, mulato3 and other) will be compared
to it. It is expected a negative sign in the parameters of the
other categories which would suggest that the other ethnic
groups have less probabilities of being in an overcrowded
household than indigenous households. This expectation
comes from the idea that indigenous historically have been
socially segregated not only in Ecuador, but in the whole
America which would result in the deterioration of their
living conditions;
HDB is a dummy variable that takes the value of 1 if the head
of the household receives the Bono de Desarrollo Humano
(rough translation: Human Development Bonus) or 0
otherwise. The Human Development Bonus is a direct cash
transfer for poor families from the government. Fixing not
receiving the cash transfer as category of reference, it is
expected to get a positive sign in the estimated betha meaning
that those households that receive the cash transfer have more
probability of being in overcrowding situation;
Tenancy is a categorical variable that describes the regime of
tenancy under which the household is living there. The
possible alternatives are: owned and fully paid, antichresis 4,
owned and paying for it, leased, given, and received for
services. By fixing as reference category the first named, it is
expected a variety of signs in the estimated parameters such
as a negative one in the own and paying for it option or a
positive sign in the leasing option.
If it is consider as crowding situation the fact that there are
more than three people per room in the household, 29.8%
households out of the total at a national level are
overcrowded. As a matter of fact, 26.6% and 36.0% of the
households are under crowding conditions in the urban and
rural areas, respectively.
Regarding the ethnic self-identification, when the head of the
household self-identifies as indigenous, the 48.9% of the
households in this category are under crowding conditions.
This percentage is 27.9% of the total in mestizo households.
Moreover, when the head of the household self-identifies as
white, the 24.8% of the total of households in this category
are under the crowding condition.
Finally, when the head of the household self-identifies as
black, the 38.8% out of the total of households in this
category are under the crowding condition. As one can see,
2
It is the ethnic identification that results of the mix between white and
indigenous.
3
It is the ethnic identification that results of the mix between white and
black.
4
It is a contractual arrangement in which the owner of the house let the
other contractual part to live in the house for paying a unique quota at the
beginning of the contract lapse. Once the lapse of the contract is finished, the
owner of the house gives back the entire initial quota to the “leaser.”
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
105
Díaz Juan Pablo1; Romaní Javier2
_______________________________________________________________________________________________________________________________
the shares of crowded households are especially higher in
minority ethnic groups (indigenous and black).
4. RESULTS AND DISCUSSION
The obtained results of the binary logit estimation are as
follows in Table 1.
Table 1. Results of the Model
Variable
β
S.E.
Constant
2556
.193
Wald
Sig.
174722 .000
Exp(β)
.078
Area(urban)
.004
.044
.924
1004
Gender(man)
.964
.051
360882 .000
2623
Age
.152
.007
420605 .000
1164
Age2
-.002
.000
595317 .000
.998
Educ
-.028
.004
40547
.000
.972
17664
.003
Ethnic(indigen)
.009
Ethnic(mestizo)
-.356
.094
14246
.000
.700
Ethnic(white)
-.164
.068
5834
.016
.849
Ethnic(black)
-.072
.119
.364
.547
.931
Ethnic(mulato)
-.070
.136
.262
.609
.933
Ethnic(other)
1469
1133
1682
.195
4345
HDB(1)
.302
.084
13031
.000
1353
Tenancy(ownfp)
Regarding the variables Age and Age2, it is confirmed
previous expectations. The first named has a positive sign
and the second a negative one in their estimated parameters.
Furthermore, they both are statistically significant at α = 1%.
These results indicate that as the head of the household gets
older, the number of members of the household increases
until a certain point in which the members start to leave the
house. Then, the effect of the age of the head of the
household on the probability of being overcrowded has a
concave shape;
181138 .000
Tenancy(antich)
.271
.576
.221
.638
1311
Tenancy(ownpay)
.247
.135
3359
.067
1281
Tenancy(leasing)
-.627
.055
130263 .000
.534
Tenancy(given)
-.431
.057
56745
.000
.650
Tenancy(receivedfs)
-.671
.115
34118
.000
.511
In binary choice models, the estimated parameters do not
have a direct interpretation. However, the signs of them do.
Said so, first, it is important to say that our model includes a
constant term with negative sign which is individual
statistical significant at α = 1%;
Although the variable Area has a positive sign in its
estimated parameter, it is not individual statistical significant
at any level. Consequently, one could assume that the
location of the household, meaning being settled in the rural
or urban areas, does not affect the probability of a household
of being in overcrowding situation;
The estimated parameter of the dummy variable Gender
presents a positive sign and it is statistically significant at α =
1%. Taking into account that it has been set up being woman
as reference category, this positive sign suggests that when
the head of the household is a man, there is more probability
of being overcrowded with respect to a woman;
With respect to the variable Educ that represents the years of
formal education attended by the head of the household, it
has been gotten a negative sign in the estimated parameter of
the variable which is statistically significant at α = 1%. It is
confirmed our expectations that the more educated the head
of the household, the less the probability of being in
overcrowding situation. Indeed, as it has been previously
said, the years of education also works as a proxy of the level
of income; consequently, it can be induced that the more the
level of income, the less the probability of being
overcrowded in the household;
Regarding the variable Ethnic, let’s remember that it
represents the ethnic self-identification of the head of the
household and it has been set up indigenous as reference
category. The categories mestizo and white have negative
signs in the estimated parameters and they are statistically
significant at α = 1% and α = 5% respectively. This suggests
that those households in which the head of the household
self-identifies as mestizo or white have less probabilities of
being overcrowded with respect to those ones who selfidentify as indigenous. The other categories (black, mulato
and other) are not statistically significant at any level which
means that they behave as the base category does;
The dummy variable HDB presents a positive sign in the
estimated parameter and it is statistically significant at α =
1%. Considering that it has been fixed as category of
reference not receiving the government cash transfer, it
implies that when the head of the household receives the cash
transfer, there is more probable being in overcrowding
condition than not receiving it;
Finally, the regime of tenancy under which the household is
living in the dwelling, represented in the variable tenancy and
for which it has been set the category ‘owned and fully paid’
as reference, presents a variety of signs. First, the category
‘antichresis’ presents a positive sign, but it is not significant
at any level. Probably, this category is not significant since
only 17 observations out of the 13.581 in the sample are
under this regime of tenancy. Secondly, the category ‘owned
and paying for it’ presents a positive sign and it is significant
at α = 10%. This means that when the household is paying for
the dwelling has more probability of being in overcrowding
situation than when the dwelling is fully paid. Thirdly, the
leased, given and received for services categories have a
negative sign in the estimated parameters and they are
significant at α = 1%.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
An approximation to Household Overcrowding: Evidence from Ecuador
_________________________________________________________________________________________________________________________
This indicates that when the household is leased or got the
dwelling as given of for services, the probability of being
overcrowded decreases compared to the ‘owned and fully
paid’ category. Analyzing this category globally, when the
dwelling is owned, fully paid or paying for it, the probability
of being overcrowded increases. Our guest is that this
happens because the young members of the household do not
have enough financial independence when they form their
family, so they stay with their parents leading to extended
households especially in the poor. This social behavior is
according to what Bongaarts (2001) found in his research in
the sense that the lack of financial independence lead to
extended households in terms of number of members in the
household.
106
Now, let’s give a look to the classification table of the model,
in Table 2.
Regarding the value of the -2 Log likelihood when one
considers the intercept and covariates, the estimation
terminated at itineration 4 because parameter estimates
change less than .001. This value of 16534.196 is
considerably smaller than the one of 18465.075 obtained
when only the intercept term is considered in the model. This
diminishing in the -2 Log likelihood suggests that our
variables contribute and give explanation power to the model.
As a matter of fact, this guess is also verified due to the
Akaike Information Criteria (AIC) which presents a decrease
of 1914.879 when one considers the intercept and covariates
with respect to only the intercept. Regarding the values of
13.3% and 17.8% obtained in the Cox & Snell and
Nagelkerke R squares respectively, they can be consider
quite acceptable since in this type of models the estimation is
not based on maximizing the measure of goodness of fit like
in the linear regression models.
Table 2. Classification Table*
5. CONCLUSIONS
Observed
Predicted
yi = 0
yi = 1
no
overcrowded
overcrowded
no
overcrowded
2461
3223
43.3
yi = 1 overcrowded
1128
6769
85.7
yi = 0
Percentage
Correct
Overall Percentage
68.0
*cut point 0.5.
By observing the classification table, one can appreciate that
our model presents 1128 false positives. The false positives
are the ones that considering a probability of 50% (the cut
value is .500) were classified incorrectly in the prediction of
being in an overcrowding situation (Yi=1). In other words,
the proportion of false positives, which is 32.9%, represents
the proportion of incorrect cases in the prediction of the
group of being in overcrowding situation Yi=1. On the other
hand, the number of households classified as false negative is
3223. These households are the ones classified incorrectly in
the set of the predictions of not being in an overcrowding
situation Yi=0. However, globally, the model presents a 68%
of correct predictions which, for a probabilistic binary choice
model is quite good. Indeed, this percentage of correct
predictions can be consider as a measure of goodness of fit
without taking credit of the R squares discussed below, in
Table 3.
Table 3. Model Summary
Criterion
Intercept Only
Intercept and
Covariates
-2 Log
likelihood
18465.075
16534.196
AIC
18467.075
16552.196
Cox & Snell R
Square
.133
Nagelkerke R
Square
.178
It has been constructed a binary choice model with logit
specification that allows to calculate the probability of being
under overcrowding situation in the household considering as
an overcrowded household in which there are more than three
people per bedroom. Our empirical analysis, using data from
Ecuador, indicates that a set of variables of the head of the
household influence the probability of being in overcrowding
situation. Particularly, it has been verified that the influence
of the age of the household on the probability of being in
overcrowding situation behaves as a concave function
indicating that as the time passes the number of members in
the household increases until certain point when it starts to
decrease. In addition, it has been found that the regime of
tenancy under which the household is living in the dwelling
also affects the probability of being in an overcrowded
household. Surprisingly, once the correct explanatory
variables have been included in the model, our empirical
analysis shows that there is no statistical significant evidence
about the influence of the area, meaning being settled in the
urban or rural side, on the probability of being in an
overcrowded household.
Additionally, our findings also could have public policy
implications. In that sense, considering that it has been
characterized the fact of being in overcrowding situation
based on a set of variables related to the head of the
household, public policies can be addressed to overcome this
condition. For example, housing credit policies can be
addressed to the head of the household at the age in which
there is more probability of being in overcrowding situation
which would lead to improve living conditions of the entire
household. Moreover, housing credit policies would affect
the regime of tenancy of the household which can turn out in
an increasing of wealth and welfare in the household.
Finally, this research opens the door for further studies.
Considering the fact that in this paper authors have studied
the factors that affect the probability of being in
overcrowding situation in a developing country, afterwards
one could study the dynamics of this social problem in
developed countries and contrast the results, so structural
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
107
Díaz Juan Pablo1; Romaní Javier2
_______________________________________________________________________________________________________________________________
differences can be detected. Moreover, since now it is known
what are the factors that contribute to increase the
overcrowding probability, one could study the effects of it at
a household level in further research then.
REFERENCES
Acosta, A (2012). Breve Historia Económica del Ecuador. Corporación
Editora Nacional.
Baker, M D. Das, K. Venugopal, and P. Howden-Chapman (2008).
Tuberculosis Associated with Household Crowding in a Developed country.
Journal Epidemiol Community Health 62. p.p. 715–721.
Baldassare, M. (1978). Residential Crowding in Urban America. Berkeley:
University of California Press.
Bongaarts, John (2001). Household Size and Composition in the Developing
World in the 1990s. Population Studies, Vol. 55, No. 3 p.p. 263-279.
Burch, T. (1970). Some Demographic Determinants of Average Household
Size: An Analytic Approach. Demography, Vol. 7, No. 1. p.p. 61-69.
Carnahan D. et al. (1974). Urbanization, Population Density and
Overcrowding: the Quality of Life in Urban America. Social Forces 53. p.p.
62-72
Comisión Económica para América Latina y el Caribe CEPAL (2001). El
Método de las Necesidades Básicas Insatisfechas (NBI) y su aplicación para
América Latina. Santiago de Chile.
De Cabo, G. (2007). Diferencia y Discriminación Salarial por Razón de
Sexo. Instituto de la Mujer. Madrid.
Galle, O. and W. Gove. (1978). Overcrowding, Isolation and Human
Behavior: Exploring the Extremes in Population Distribution. Karl Tauber
and James Sweet (eds.). Social Demography. P.p. 95-132.
Iglesias de Usel, J. (1993). Vivienda y Familia. In Garrido, L, Estrategias
Familiares.
Instituto Nacional de Estadísticas y Censos (2006). Encuesta de Condiciones
de Vida.
Lanjouw, P. and M. Ravallion (1995). Poverty and Household Size. The
Economic Journal, Vol. 105, No. 433 p.p. 1415-1434
Lentini, M. (1997). El hacinamiento: La dimensión no visible del déficit
habitacional. Boletin INVI 31. Volume 12. p.p. 23-32.
Marx, B and T. Stroker (2013). The Economics of Slums in the Developing
World. The Journal of Economic Perspectives. Vol. 27, No. 4. p.p. 187-210.
Puga, J. (1983). Consecuencias sociales del déficit habitacional en los
sectores urbanos de mínimo ingreso. In Donald, J Vivienda Social –
Reflexiones y experiencias.
Verbeek, M. (2004). A Guide to Modern Econometrics. 2nd. Ed.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
The Bad Business of Agriculture. A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador
_________________________________________________________________________________________________________________________
108
The Bad Business of Agriculture
A Correlation Analysis on Employment Share and Agriculture
Added Value Share in Ecuador
Díaz Juan Pablo

Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador. Universidad de Barcelona, Facultad de Economía y
Empresa, Barcelona, España.
Abstract: This research tries to identify a correlation relationship between agricultural added value share and the
agricultural employment share. To do so, a correlation analysis using the Pearson´s Correlation Coefficient is
carried out. It has been found that the less the share of the agricultural added value in the Ecuadorean economy, the
more the share of the employment in the sector which supposes that Ecuadorian agricultural workers get relatively
poorer with respect to the others sector workers as time passes.
Keywords: Ecuador, agriculture, added value, employment share.
El Mal Negocio de la Agricultura
Un Análisis de Correlación entre el Porcentaje de Ocupados y el
Porcentaje de Valor Agregado Agrícola en Ecuador
Resumen: Esta investigación trata de identificar una relación de correlación entre el porcentaje de valor agregado
que representa el sector agrícola en la economía ecuatoriana y el porcentaje de personas ocupadas en este sector.
Para esto, se utiliza el coeficiente de correlación de Pearson. Los resultados indican que mientras menor es el
porcentaje de generación de valor agregado agrícola en la economía ecuatoriana, mayor es el número de personas
que se involucra en esta actividad económica lo que significa que los trabajadores agrícolas se vuelven
relativamente más pobres con respecto a los trabajadores de otros sectores de la economía con el devenir del
tiempo.
Palabras clave: Ecuador, agricultura, valor agregado, participación del empleo.
1. INTRODUCTION1
Consequently, all first-sector activities have demanded less
labor as time passes.
Every national economy is composed by three economic
sectors. The primary sector is the one that includes activities
closely related to the use of natural resources. Agriculture,
forestry and cattle raising are some examples of economic
activities in this sector. The secondary economic sector is the
one in which commodities are transformed in other goods.
All the manufacture activities are enclosed in the secondary
sector. Finally, all services, such as commerce, that are
provided within an economy are represented in the third
sector.
In the last decades, secondary and third sector have increased
their share in the national economies all around the world;
meanwhile, primary sector has decreased. Consequently,
primary-sector economic activities, like agriculture, have
become less attractive for businessmen since they have
expected to make more money in the other two sectors.
[email protected]
In the case of developed countries, first-sector economic
activities are less attractive for making money, so less people
get employed in these activities which leads to a decreasing
first-sector labor demand tendency during last decades. This
phenomenon is particularly interesting in the case of
agriculture. As a matter of fact, around 2% of economically
active population is employed in agriculture in developed
countries. Furthermore, the modernization of the agriculture
also has contributed to demand less labor in the first world.
However, it could be possible that the dynamics of developed
countries do not apply in the developing ones. This idea
comes from the fact that the share of workers involved in
agriculture is greater than 10% (for 2014) in developing
economies.
Bearing in mind previous lines, this paper tries
how the agricultural business is going in the
world. To do so, Ecuador has be considered
analysis. In the following pages, reader can find
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
to identify
developing
as unit of
a short but
109
Díaz Juan Pablo1
_______________________________________________________________________________________________________________________________
precise literature review about the agriculture topic. Then, the
methodology of our analysis is presented. After that, the
results and the conclusions are presented
this year was 7,8 % and the added value growth rate was
5,2 %. Finally, the countries in where the agricultural added
value decreased although the economy in general increase
were classified in group three.
2. LITERATURE REVIEW
In order to study how the agriculture in Ecuador is going, it is
planned to contrast the behavior of the employed workers
rate in the agriculture sector and the variation of the
agriculture added value contribution in the Gross Domestic
Product in Ecuador. Properly said, it is wanted to know what
happens with the agriculture added value share in the
Ecuadorean economy when the proportion of the employees
in this sector increases.
From an historical point of view, the Ecuadorean economy in
particular, and the Latin American economies in general, has
followed an agro-export and monoculture model. Even now,
according to García Trujillo et al (1993) quoted in Machado
(2004), developing countries devote 20% of their lands in
order to produce their own food and the other 80% is for
export production. In the middle of the 80’s, ECLAC (1985)
indicated that the Green Revolution has fertile land in Latin
America since the countries of this region had the need of
increasing their productivity in the short-run for incorporate
their production in the global economy. However, not all the
products of the Latin American countries were demanded in
the global markets, but just some of them. This pushed to the
monoculture specialization of Latin American countries.
Furthermore, modernization of the rural Latin America
brought scientific and technologic dependence of the
advanced economies (Guerra, 1985; Palacios, 1998; Iglesias,
1999 quoted in Machado 2004).
When the agriculture land owners that could assimilate the
modernization were the only ones able to develop, farmer
economy became disarticulated. The changes in the land
tenancy structure brought significant social differentiations
between medium and great producers with respect to the
small ones. Furthermore, the proletarianization of the farmer
sector took place (Donizete and Thomas, 2002 quoted in
Machado 2004).
According to ECLAC2 (2014), the volume of agricultural
added value in Latin America increased 2,7% which is less
than the 4,3% of the Gross Domestic Product (GDP) growth
in 2011. In such a sense, ECLAC classifies the Latin
American and Caribbean countries in three groups according
to their performance in the agricultural sector. Consequently,
the first group, in which the countries with higher
performance in the agricultural activity were identified, was
composed by Chile, Jamaica, Bahamas, San Cristobal y
Nieves, Honduras, Dominican Republic, Granada and Brazil.
In the second group of countries, the growth of the
agricultural added value was positive but less than the global
GDP. In this group, countries like Ecuador, Uruguay,
Surinam, Peru, Paraguay, Venezuela, Guatemala, Bolivia,
Nicaragua, Colombia, Costa Rica and Guyana were
classified. In the case of Ecuador. The GDP growth rate for
2
Economic Commission for Latin America and the Caribbean.
Our curiosity came from the previous paragraph. Indeed,
authors started to wonder if this increase in the agricultural
added value, especially in the first two groups of countries
meant a significant improvement in the working and living
conditions of the agricultural labor. To be more specific, I
decided to reduce my unit of analysis, then I choose Ecuador
as case of study for verifying the degree of correlation, not
causality, between added value share and agriculture labor
share in this country.
3. METODOLOGY
In order to perform the analysis, it is appropriate to use the
so-called Pearson´s Linear Correlation Coefficient which is
widely used in order to verify the possible association
between two variables. In the case of quantitative data, this
instrument allows to get information about what happens
with the values of a variable –if they increase or decreasewhile the other variable increases. Another possibility is that
there is no relationship at all between variables.
However, it is important to remark that this correlation
coefficient does not necessarily provide a causality
relationship between both variables but the degree of
relationship between them.
The Pearson´s coefficient (r) measures the degree of
association between any two variables (x and y) and it can be
calculated as the result of the covariance of the two variables
divided for the multiplication of the standard deviations of
the two variables, as seen Equation (1)
𝑟𝑥,𝑦 =
𝜗𝑥𝑦
𝜗𝑥 𝜗𝑦
(1)
For any pair of variables, the value of the r coefficient can
take any value in the interval [-1, 1]. In the case that r = -1, it
is said that there is a perfect negative linear relationship
between both variables. On the other hand, if r = 1, then there
is a perfect positive linear relationship between both
variables. Finally, if r = 0, there is no linear relationship
between both variables at all.
Basically, two use two time series variables for Ecuador are
going to be used in the period 1990-2012:

Added value of the agriculture sector as percentage
of
the
Gross
Domestic
Product
(ADDEDVAL_AGRIC); and,

People employed in the agricultural sector as
percentage out of the total of workers
(TOTAL_AGRIC).
Moreover, it could defined another two employment subvariables in order to have a gender approximation. First, it is
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
The Bad Business of Agriculture. A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador
_________________________________________________________________________________________________________________________
possible to define a variable that represents the number of
women employed in agriculture sector as percentage out of
the female employment (WOMEN_AGRIC). In the same way,
it can defined other variable that captures men employed in
agriculture sector as percentage out of the male employment
in the Ecuadorean economy (MEN_AGRIC). Then, it is
possible to calculate the Pearson’s correlation coefficient of
all the employment series with the agriculture added value
share.
The data base that is going to be used in this study comes
from the World Development Indicators (WDI) of the World
Bank. Furthermore, our unit of analysis is going to be
Ecuador. The time series are from 1900 to 2012. Data for the
year 2002 is not available for the employment share
variables; consequently, the information of this year is not
taken into account in the correlation analysis.
4. RESULTS AND DISCUSSION
First, let’s give a look to the evolution of the series in time:
36
Rate
32
28
110
million to 9.1 million of inhabitants between 1995 and 2000
(UNICEF w/d quoted in Acosta 2012). By looking at
Figure 1, one can notice that it is in this lapse of time when
the number of people enrolled in agriculture increases
exponentially.
A first idea that can be taken until this point is that when the
economy is going good, the agriculture sector is not attractive
for workers. This can be given by the fact that wages in rural
areas are less competitive than in cities. However, when
workers have no job opportunities in cities they look back to
the agriculture as a live vest. In addition, it is important to
mention that the rates of employment in agriculture (total,
men and women) could have been even greater after the
economic crisis, but hundreds of thousands of Ecuadoreans in
working age emigrated from their country in order to get a
job overseas (especially in Spain, United States, and Italy).
Indeed, Jokisch (2002) demonstrate empirically that that
considerable labor loss and capital infusion have not
significantly altered household cultivation patterns. He found
that land use and agricultural production of international
migrant households is not significantly different from nonmigrant households or households engaged in domestic
circulation. This suggest that the remittances send by the
emigrants are not used for improve agricultural habits nor
invest in technology for the sector.
24
Coming back to our correlation analysis, once the Pearson´s
correlation coefficient has been applied to our pairs of
variables, the following results are obtained:
20
16
12
Table 1. Pearson’s Correlation Coefficients
8
4
Year
0
90
92
94
96
98
00
WOMEN_AGRIC
ADDEDVAL_AGRIC
02
04
06
08
10
12
MEN_AGRIC
TOTAL_AGRIC
Figure 1. Evolution of the Agricultural Added Value Share and Employment
Share series
It is important to notice that the agriculture added value as
percentage of the Gross Domestic Product (GDP) has a
negative slope in the whole period; however, when the
Ecuadorean 1998-1999 crisis took place, the participation of
the agriculture in the economy tends to decay faster. On
contrary, when the crisis took place, the share of workers in
the sector tend to increase. In order to understand this crisis,
it is possible to say that the drop of the Ecuadorean total GDP
was 31% between 1998 and 2000 measured in US dollars;
furthermore, Ecuadorean currency had a devaluation of
216%, an inflation rate of 52%, a diminishing of the real
wage of 23%, and outflows of private capitals equivalent to
15% of the GDP (Acosta, 2012). Going back to the analysis
of our series, it can give us the idea that the Ecuadorean
agriculture sector is like a “sponge” that absorbs workers
when they lose their jobs in the other economic sectors,
especially when crises appear.
It is interesting to point out that it seems very reliable the fact
the agriculture is a business in charge of the poor in Ecuador.
Indeed, the number of poor got more than doubled from 3.9
Women_agric
Men_agric
Total_agric
Addedval_agric
-0.888368
-0.902461
-0.897111
The previous Table 1 shows the core of our analysis. It can
appreciated the correlation coefficients (r values) between the
agriculture added value as percentage of the GDP and the
women employed in agriculture as percentage of the female
employment (WOMEN_AGRIC), men employed in
agriculture as percentage of the male employment
(MEN_AGRIC), and total population employed in
agriculture as share of the total employed population
(TOTAL_AGRIC), respectively in the column of values. As
it is possible to see, all the correlations are negative and very
near to the value of -1. This indicates that there is a negative
correlation between the share of the agriculture as percentage
of the GDP and the employment in the sector. In other words,
the less the contribution of agriculture in the national
wealthy, the more the labor involved in the activity.
In the case of the r = -0.888368 indicates that the more
women are working in the agriculture, the less the
contribution of the agriculture in the generation of wealth in
Ecuador. This relationship is even stronger for men where the
r = -0.902461. This result suggest that when more men are
getting involved in agriculture, the sector creates less wealth
in comparison to the other economic activities.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
111
Díaz Juan Pablo1
_______________________________________________________________________________________________________________________________
5. CONCLUSIONS
ACKNOWLEDGMENT
In this paper, it has been empirically shown that the smaller
the contribution of the agricultural sector share to the
Ecuadorean economy, the greater the number of workers
enrolled in this activity. However, it is important to remark,
again, that this relationship implies correlation but not
causality. It has been found that even though more people get
involved in the activity, less share of the national wealthy
goes to these people. Given this negative relationship over
time, agriculture activities could become a less attractive
activity for workers and investors in Ecuador.
Author is pleased to thank the support of Escuela Politécnica
Nacional which is an institution committed to research in
theoretical and applied fields. Additionally, author is grateful
to the anonymous peer reviewers who gave pieces of advice
that helped to improve the quality of this paper.
Clearly, Ecuadorean agriculture employment dynamics are
different from developed counties. Literature shows that
when agriculture added value share decreases, employment
share also decreases in developed countries; however, when
the share of agricultural wealth creation decreases in
Ecuador, it catches more employment. Our guess is that
agriculture in Ecuador is not a business for making money,
but a survival activity for Ecuadorean workers. Furthermore,
this hypothesis is reinforced by the fact that when the
Ecuadorean 1998-1999 economic crisis took place, more
people get enrolled in the agriculture sector. Then, this
economic activity is consider as a survival one in which
workers get shelter in order to not starving and ensure their
subsistence and their family too. Clearly, the precarious
conditions in which small and medium farm economic
activities take place in Ecuador indicates that the labor is not
moving to this sector attracted by the high wages, but for a
survival income. However, empirical research is needed to
prove this last affirmation.
Moreover, the fact that Ecuadorean workers migrate from/to
agriculture sector in a relatively easy way suggest that the
labor employed has no high training nor experience in the
activity.
Since it has been found that less the contribution of
agriculture in the national wealthy, the more the labor
involved in the activity, it is possible to conclude that the
people involved in agricultural activities get relatively poorer
with respect to the workers in other economic sectors as the
time passes. Public policy is required in order to transform
this reality before no one Ecuadorean is interested in
agricultural activities.
Finally, it is important to remark, even though it has being
done several times in this article, that the findings of this
paper imply correlation but not causality. In order to establish
a causality relationship between employment in agriculture
and agriculture added value share, a linear regression model
can be applied for example using a production function as
economic model. However, it is not applicable for the
Ecuadorean case since production functions are constructed
in such a way that when the input increases (labor in
agriculture in our case) the output also increases (agriculture
added value share in our analysis) until a certain optimal
point. Clearly, this behavior is not the one that drive the
agriculture sector in the Ecuadorean economy, so the
correlation analysis seems appropriate.
REFERENCES
Acosta, A. (2012). Breve historia económica del Ecuador. Corporación
Editora Nacional. Third ed.
Chaherli, N; Nash, J. (2013). Agricultural Exports from Latin America and
the Caribbean: Harnessing Trade to Feed the World and Promote
Development.
Donizete, D. & Thomaz, A. (2002). A modernizacao da agricultura e os
impactos sobre o trabalho. Scripta Nova. Revista Electrónica de Geografía y
Ciencias Sociales, Universidad de Barcelona. 6 (119):44.
ECLAC (2013). Perspectivas de la agricultura y el desarrollo rural en las
Américas: Una mirada hacia América Latina y el Caribe. San José. P.p. 280.
García Pascual, F. (2006). El sector agrario del Ecuador: incertidumbres
(riesgos) ante la globalización. (Spanish). Íconos. Revista De Ciencias
Sociales, (24), 71-88.
García-Trujillo, R.; Muñoz, E. & Fraga, L.M. (1993). Bases para una
ganadería sostenible en el trópico. Agrotecnia, ecología y pastoreo de
rumiantes en los trópicos. UNAM. México, D.F.
Glauber, JW. (2013). USDA 89th Agricultural Outlook Forum. Disponible
en http:// www.usda.gov/oce/forum/
Iglesias, Fe. (1999). Del ingenio al central. Editorial Ciencias Sociales. La
Habana, Cuba.
Machado, H. (2004). Modelo de desarrollo agroexportador versus agricultura
sostenible en América Latina y el Caribe. Pastos y Forrajes, Vol. 27, No. 1.
Palacios, G. (1998). Intelectuales y cuestión agraria en los años treinta.
Boletín del Archivo General Agrario. CIESAS-RAN. 02 p. 31
Jokisch, B. D. (2002). Migration and Agricultural Change: The Case of
Smallholder Agriculture in Highland Ecuador. Human Ecology: An
Interdisciplinary Journal, 30(4), 523.
Troncoso, P (2005). Acerca de la Globalización en la Agricultura.
Territorios, empresas y desarrollo local en América Latina. Tiempo y
Espacio 15/2005 ISSN 0716-9671. Universidad del Bío-Bío. Chillán, Chile.
World Bank (2015). World Development Indicators. Visited on March 2015.
Available in http://data.worldbank.org/data-catalog/world-developmentindicators.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
__________________________________________________________________________________________________________________________
112
Transferencia de Tecnología Incorporada Mediante Comercio
Interindustrial en la Economía Social y Solidaria
Argothy Anderson

Universidad de León, Facultad de Ciencias Económicas y Empresariales, León -España
Resumen: El presente trabajo busca identificar los niveles de tecnología incorporada, producto de las relaciones
comerciales interindustriales en la Economía Popular y Solidaria. Para lo cual se utilizará la información recogida
en el Censo Económico del Ecuador así como en las Tablas Oferta Utilización, publicadas por el Banco Central de
Ecuador. De esta manera se pretende identificar como los países en vías de desarrollo ante la falta de inversiones
importantes en I+D directa, suplen de alguna manera esta deficiencia mediante comercio interno, esto permite que
las innovaciones de otros sectores industriales apoyen a los sectores con los que se relacionan.
Palabras clave: Innovación, difusión de tecnología, comercio, transferencia de conocimiento, economía del
conocimiento, economía popular y solidaria
Technology Transfer incorporated by inter-industry trade in the
Social and Solidarity Economy
Abstract: This paper seeks to identify levels of technology embodied, as result of interindustry trade relations in
the People's Solidarity Economy. For which the information contained in the Economic Census of Ecuador as well
as in Tables Offer Utilization, published by the Central Bank of Ecuador is used. This approach is intended to
identify, how developing countries in absence of significant investments in R & D supplement this deficiency by
internal trade, this allows innovations in other industries support sectors with relate industries.
Keywords: Innovation, technology diffusion, trade, knowledge transfer, knowledge economy
1
1. INTRODUCCION
El presente proyecto de investigación, es un primer
acercamiento respecto a la transferencia de tecnología
incorporada mediante el comercio interindustrial en la
economía social y solidaria ecuatoriana.
El objetivo de este trabajo es medir los flujos de tecnología
incorporada dentro de la industria ecuatoriana; además
identificar los sectores industriales en dónde existe mayor
esfuerzo ya sea directo o indirecto de I+D. Haciendo especial
énfasis en los sectores en los cuales se ha internacionalizado
tanto en el pasado como el presente la economía del Ecuador.
De esta manera en base a los datos que se obtengan, hacer
recomendaciones de cara al futuro para lograr una verdadera
transformación de la estructura de producción ecuatoriana de
modo que el país se acerque más a la economía del
conocimiento y la innovación. Situación que marcaría un
cambio fundamental de características positivas frente al
extractivismo de las economías en desarrollo.
Este trabajo se respalda en las aportaciones teóricas de
Papaconstantinou, Sakurai, y Wyckoff (1998), Keller (2004),
Cohen y Levinthal (1989), entre otros, quienes manifiestan la
importancia que tiene la difusión de tecnología incorporada
mediante el comercio, ya sea a nivel internacional o en el
ámbito nacional, mediante flujos interindustriales, destacando
de manera especial como este flujo se convierte en una
alternativa para los países que no cuentan con el stock de
conocimientos adecuados para desarrollar I+D o para utilizar
tecnología desincorporada (Redalyc, 1996).
La metodología a usar en este trabajo se basa en matrices
input-output las cuales son uno de los mecanismos más
importantes
desarrollados
para
medir
relaciones
interindustriales en la economía, (Gachet, 2005). Estas tiene
que ser combinadas con el índice de innovación directa, el
cual es un indicador de la porción de gasto en I+D por rama
de actividad. Esta metodología ha sido utilizada con algunas
variantes por autores como Terleckyj (1974), Scherer (1982)
y más recientemente por Amable y Palombarini (1998),
Papaconstantinou et al (1998), Camacho y Rodríguez (2005).
De esta manera se logra tener los indicadores relevantes que
permitan el entendimiento de las características del flujo de
tecnología incorporada en la economía y así responder las
preguntas de investigación. Cabe destacar que existen dos
supuestos iniciales: i) el gasto en I+D es considerado como
un recurso importante para la expansión del conocimiento
técnico, y ii) las transacciones comerciales interindustriales
[email protected]
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
113
Argothy Anderson
_______________________________________________________________________________________________________________________________
transportan I+D a través de las industrias y países,
(Papaconstantinou et al., 1998).
Las conclusiones de este trabajo identifican los sectores
industriales que mayor esfuerzo en I+D directa, indirecta y
total poseen. Destacan mediante el análisis de datos la
importancia que tiene la tecnología incorporada para la
industria ecuatoriana. Plantean recomendaciones respecto al
futuro de la política pública de fomento y apoyo a la
innovación, ciencia y tecnología.
El trabajo cuenta con cinco capítulos. En el capítulo dos, se
presenta una revisión teórica donde se habla de economía de
la innovación destacando la importancia que esta ha tomado
en la actualidad. Posteriormente se revisa algunas
aportaciones teóricas sobre flujos de tecnología e
internacionalización. El numeral tres explica de forma
detallada la metodología utilizada, en la sección cuatro se
presentan los resultados obtenidos del estudio. En el apartado
cinco se destacan las principales conclusiones así como las
limitaciones.
2. MARCO TEÓRICO
2.1 Economía del Conocimiento e Innovación
Como manifiestan David y Foray (2001), en el siglo XX
aparece una nueva característica del crecimiento económico,
cuya principal evidencia es la profundización del capital
intangible, frente al capital tangible. Una parte importante del
capital intangible está compuesto por inversiones en
capacitación, I+D, información y organización, es decir en
actividades que tienen que ver con la producción y difusión
de conocimiento.
La sociedad en su conjunto es la que adopta actividades
productivas que demandan conocimiento. Esta economía, se
distingue por algunas características: i) la aceleración en la
producción de conocimiento, ii) incremento del capital
intangible a nivel macroeconómico, iii) la innovación se
vuelve una actividad dominante dentro del plano económico,
además de que sus fuentes son muy variadas, y iv) la
revolución mediante instrumentos del conocimiento.
Para entender el proceso de innovación y su relación con el
conocimiento, se debe destacar la doble naturaleza del
conocimiento, de acuerdo a Becattini (2005) y Nonaka &
Takeuchi (1995) teniendo como base su posibilidad de
transmisión, es posible dos tipos de conocimiento: i) Tácito,
aquel que es difícil de transferir, pues se basa en muchos
casos en la experiencia. ii) Codificado, es el que se encuentra
disponible mediante documentos por ejemplo patentes,
formulas químicas, manuales de uso, etc.
Sin embargo no únicamente en el siglo XXI se habla de este
tipo de economía, autores clásicos como Smith, Marx, List,
entre otros, ya mencionaban respecto a la importancia del
conocimiento y los elementos tecnológicos dentro del sistema
de producción.
Marshall (1890) manifiesta que los rendimientos crecientes
se consiguen no solo mediante la concentración de la
producción en establecimientos muy grandes, sino también
por la proximidad de pequeñas empresas, destacándose la
importancia de la cercanía geográfica como elemento que
fortalece la relación y el intercambio de conocimientos,
tecnología e innovaciones.
Schumpeter (1947) indica que la empresa es el centro de la
innovación, y es necesaria la existencia de empresarios
innovadores los cuales sean capaces de generar pequeñas
innovaciones incrementales de manera que creen condiciones
de monopolio, que obligan a que el resto de empresas se vean
en la necesidad de innovar o adaptarse. Caso contrario
saldrán del mercado, este proceso de creación y destrucción
genera un ciclo ascendente de inversión y determina el estado
de la economía. Solow (1957) reaviva la discusión respecto al
tema, en su trabajo busca cuantificar el progreso técnico de
forma residual, estos residuos recogerían el cambio
tecnológico y el tiempo. Luego del análisis, llegó a la
conclusión de que la productividad por trabajador había
incrementado mucho más de lo que podría ser explicado por
la acumulación de trabajo y capital, lo cual indicaba que el
factor residual jugaba un papel determinante en el
crecimiento de la economía (Solow, 1957).
Si se analiza desde el enfoque de la economía industrial y
buscando la importancia del tamaño de la empresa como
determinante de la innovación, se puede obtener resultados
ambiguos. Es valedera la afirmación de que las empresas
grandes poseen ventajas derivadas de su tamaño para la
generación de innovaciones, así como que las empresas
pequeñas o medianas son fuente de innovaciones, en la
mayoría de casos radicales debido a su estructura de fácil
adaptabilidad a las condiciones del mercado. Estudios
empíricos han demostrado que la aglomeración de pymes,
enfocadas en la producción de un mismo producto; permite,
una rápida difusión de las innovaciones, (Bellandi, 1996).
La estructura organizativa flexible beneficia la
experimentación, pudiendo transformarlas en pioneras en la
introducción de novedades ya sea al interior de la
organización, o en el mercado (Abernathy & Utterback,
1978). Schumpeter (1947) otorga mayor importancia frente a
actividades innovadoras a la gran empresa, estima que por su
tamaño significativo accede a una mayor cantidad de
recursos. Freeman (1975) vuelve a la discrepancia, afirmando
que se pueden encontrar diferencias significativas respecto a
la contribución en innovación entre pequeñas y grandes
empresas, y estas dependerán mucho del sector industrial que
se analice.
En su teoría del Cambio Tecnológico, Dosi y Nelson (2009),
manifiestan el avance tecnológico es un proceso evolutivo
que se compone de tres elementos: i) la dinámica industrial,
ii) el crecimiento económico, y iii) la innovación tecnológica
y organizativa. Estos elementos llevan a la generación de
novedad y únicamente se retienen las novedades que son
adecuadas al momento de la selección. Dentro del campo de
la tecnología y la innovación se pueden destacar algunas
características propias, las mismas que son recogidas por
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
114
Molero (2001), de estas particularidades se puede intuir
cierto modelo de dinámica tecnológica, la misma que ha sido
estudiada por algunos autores, siendo posiblemente más
destacado Dosi (1982), quien presenta una importante
distinción respecto a los paradigmas y las trayectorias
tecnológicas.
del tiempo, de tal manera en la actualidad, es la forma
económica fundamental para el desarrollo de los países, por
tanto tiene que ser tomada en cuenta como un pilar para la
planificación económica del Ecuador.
La demanda como manifiestan Dosi y Nelson (2009), puede
intervenir en el cambio de paradigma de tres maneras, i)
mediante cambio en los precios relativos y condiciones, ii)
influencia de las condiciones de mercado en la asignación
efectiva de esfuerzos, iii) cambios de los criterios de
selección en el mercado. Dada la diferencia de trayectorias
tecnológicas se entiende que los países se encuentren en
condiciones dispares de conocimiento tecnológico. Como
manifiesta Posner (1961) existe un gap o brecha tecnológica
generada por la mayor eficiencia en la producción y
comercialización de productos frente a los países
competidores, así como por el conocimiento acumulado.
Las nuevas teorías del crecimiento económico a partir de los
años 90 hacen hincapié en la innovación, como el mayor
recurso para el avance tecnológico, lo que le convierte en la
guía del crecimiento económico, dando lugar a varios
estudios empíricos que buscan entender la capacidad de la
Investigación y Desarrollo (I+D) para promover las z
Las inversiones en desarrollo tecnológico no solo benefician
al país o lugar donde se desarrollan sino también a sus
contrapartes pudiendo ser industrias, a nivel local o países a
nivel internacional. Este proceso en el cual otros se
benefician de la tecnología desarrollada se denomina difusión
de la innovación. La difusión incluye por lo tanto la adopción
de otros usuarios, así como el uso más extensivo del
innovador original; a breves rasgos se dice que incluye todas
las medidas que se tomen a nivel de empresa, sector o país
para explotar los beneficios económicos de la innovación
(OCDE, 1988).
Dentro de las teorías que vinculan al comercio con la
tecnología se puede mencionar a Vernon (1966) en su
enfoque del ciclo vida del producto. En base a las
desigualdades de las capacidades tecnológicas entre los
países, se plantea la posibilidad de explicar la diferencia
existente entre los patrones de comercio internacional y
crecimiento, (Barcenilla y López, 1996). En estos esfuerzos
por entender las fuentes del cambio tecnológico y por
catalogar la innovación dentro de un modelo explicativo
aplicable para gran cantidad de industrias, el pionero sin
lugar a dudas es Keith Pavitt (1984), pues su taxonomía es
ampliamente reconocida como el pilar fundamental para
entender la innovación.
Dentro de esta se distinguen a sectores productores y usuarios
de innovación ubicándolos dentro de cuatro grupos. Para la
presentación de su taxonomía, la unidad básica de análisis es
la empresa innovadora; además, indica que los patrones de
innovación son acumulativos, por tanto dependerá de la
trayectoria tecnológica seguida y de la actividad principal de
la empresa, ya que diferentes actividades generan diferentes
trayectorias, estas a su vez pueden ser agrupados en tres
grupos: i) dominados por los proveedores; ii) producción
intensiva, esta se divide en dos categorías: a) intensivos en
escala, b) proveedores especializados; y, iii) basados en la
ciencia. Las diferentes trayectorias tecnológicas pueden ser
explicadas por las diferencias sectoriales, tomando en cuenta
tres características: i) recursos tecnológicos; ii) necesidad de
los usuarios; y, iii) medio de apropiación de beneficios.
Después de revisar los diversos enfoques en cuanto a la
economía del conocimiento, la innovación y la tecnología se
llega al punto donde la tecnología se vuelve un determinante
del comercio internacional, la especialización y la
internacionalización de las industrias y los países, por lo que
es necesaria su adquisición o desarrollo de innovaciones para
que las economías se encuentren en una mejor situación de
competencia, y puedan insertarse dentro de la economía
basada en el conocimiento. En este sentido la revisión teórica
sobre el camino, seguido por la economía del conocimiento,
pretende destacar la importancia que ha adquirido con el paso
2.2. Flujos interindustriales de tecnología
La difusión de la innovación a nivel internacional puede
darse de varias maneras siendo aplicable también al contexto
local. De acuerdo a Keller (2004), las tecnologías se mueven
de un país a otro a través del comercio internacional,
mediante bienes de capital y bienes intermedios los cuales
pueden ser importados directamente. Usando bienes
intermedios extranjeros en la producción final de un
producto, esto constituye una forma implícita de uso de
tecnología incorporada. Dando paso a un spillover de
difusión internacional de tecnología, basado en que los costos
de los bienes intermedios son menores que los costos de
oportunidad que incluyen la I+D del producto desarrollado.
Por tanto a nivel nacional también el comercio sirve como
mecanismo de difusión de tecnologías entre las industrias.
Otra manera de difusión de las innovaciones o la tecnología
es la Inversión Extranjera Directa (IDE), esta ha sido
ampliamente analizada tanto empírica como cualitativamente
dentro de las teorías de IDE y productividad. Una tercera
forma y que se aplica principalmente a las economías
desarrolladas tienen que ver con la generación de efectos de
spillover directos, en el sentido de que se generan ideas y
conocimiento que pueden ser utilizados en los procesos de
producción por empresas que no sean las que llevan a cabo
I+D (Savvides y Zachariadis, 2002). Para este caso de estudio
se tendrá en cuenta la difusión de tecnología debido al
comercio de bienes intermedios dentro de los sectores
industriales de la economía ecuatoriana.
De acuerdo a Papaconstantinou et al. (1998), la difusión de
tecnología se refiere a los mecanismos interindustriales a
través de los cuales las empresas adquieren tecnología
externa en lugar de generarla internamente. Esta puede ser de
dos tipos: i) tecnología desincorporada y; ii) tecnología
incorporada. La primera tiene que ver con la transmisión de
conocimiento, experiencia técnica, o tecnología de tal forma
que no es necesaria la compra de productos o maquinaria
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
115
Argothy Anderson
_______________________________________________________________________________________________________________________________
que incorporen la nueva tecnología desarrollada. En el caso
de la tecnología incorporada, esta tiene que ver con la
introducción dentro de los procesos de producción, de
maquinaria equipo o componentes que incorporan tecnología
desarrollada por los proveedores nacionales o del extranjero.
Si se analiza de manera empírica la diferencia entre los dos
tipos de difusión de la tecnología, la línea divisora es un tanto
difusa, y depende mucho de la metodología que se utilice.
Cuando se utiliza como metodología las relaciones
comerciales mediante tablas input-output como es el caso de
este trabajo, se está analizando de manera específica los
flujos de tecnología incorporada.
Para Cohen y Levinthal (1989), existen dos ideas básicas que
explican los patrones y los determinantes para difusión de
tecnología no incorporada:
i) los derrames de investigación: explican las características
apropiables que tienen determinadas tecnologías en
particular, muestra como parte del nuevo conocimiento o
tecnología desarrollada por una empresa
puede ser
apropiable por otra. De acuerdo a los autores antes
mencionados, debido a que la innovación no solo beneficia a
la empresa iniciadora sino a otras, gracias a la difusión de la
innovación, el conocimiento puede desarrollarse de manera
más veloz y acumulativa.
ii) la capacidad de absorción: es como las empresas aprenden
a utilizar la tecnología desarrollada en otro lado, lo cual
estará condicionado a la cantidad de inversión previa que
haya realizado la empresa o industria. Así la facilidad de
aprendizaje dentro de una industria resulta directamente
afectada por el nivel de gastos en I+D e indirectamente
determinará la influencia que tengan los derrames sobre los
flujos efectivos de difusión. La adopción de una tecnología
presupone la capacidad de absorción, y esto último estará
relacionado con la capacidad de innovación.
Cuando los países se han iniciado tarde dentro del desarrollo
de la I+D, y por lo tanto no tienen la capacidad o stock de
I+D acumulado para aprovechar de manera eficiente, las
ventajas de la difusión de la tecnología desincorporada,
tienen que optar por mecanismos de difusión incorporados en
equipos o productos intermedios que han sido desarrollados
en otra parte o en otra industria, (Redalyc, 1996).
Cuando se habla de difusión de tecnología incorporada,
aparece un nuevo actor, se trata del mercado. Mediante el
comercio de productos intermedios, maquinaria, equipos,
etc.; los países o las industrias que presentan deficiencias a
nivel de I+D y tecnología, tratan de adquirir esta tecnología y
ser más competitivos. En este caso unas pocas industrias
actúan como proveedoras de tecnología, las mismas que se
encargan de vender bienes intermedios y bienes de capital
con elevada intensidad tecnológica al resto de industrias,
consumidores y gobierno; por lo general las industrias
proveedoras son manufactureras intensivas en I+D+I, reciben
un flujo relativamente escaso de I+D incorporada pues a
menudo usan su I+D para desarrollar su propia tecnología y
productos.
Respecto de los tipos de innovación y los usos transversales
que se da a la tecnología existen algunos autores por ejemplo
se puede mencionar el trabajo de Robson, Townsend y Pavitt
(1988), en donde presentan a través de una encuesta realizada
a 4000 empresas innovadoras del Reino Unido durante el
período 1945-1983, identificando cinco sectores básicos, seis
secundarios, y otros. El estudio revela que las innovaciones
de los sectores básicos son usadas en 18 de 26 sectores,
determinando la importancia que tienen algunas industrias
intensivas en tecnología, para el desarrollo del resto de
industrias dentro de un país.
Otro esfuerzo en la misma línea, es el realizado por Davis
(1988), quien analiza el patrón de difusión de la tecnología
entre Estados Unidos, Canadá y Japón mediante la compra de
bienes intermedios y las inversiones intensivas en tecnología,
concluyendo que gran cantidad de los bienes intermedios
incluían insumos tecnológicos incorporados que servían de
base para la industria que los utilizaba.
Este estudio señala la importancia de la difusión para dar
sustento a la competitividad de los países, pues permite
entender las diferencias entre los patrones de difusión al
interior de los mismos, también concluye que es importante
crear medidas significativas de la intensidad tecnológica que
incorporen la innovación realizada dentro de la misma
industria y la difusión, es decir I+D+I proveniente de otros
sectores industriales o del exterior incorporados en
maquinaria, bienes intermedios o equipos, para tener de esta
manera un mejor direccionamiento de la política pública de
I+D.
La importancia que tiene la difusión mediante tecnología
incorporada para los países en desarrollo es trascendental,
como manifiestan Savvides y Zachariadis (2002), esto
permite el crecimiento de la Productividad Total de los
Factores (PTF), ya que estos países se encuentran atrapados
en un círculo vicioso de insignificante actividad de I+D, que
no permite alimentar el motor del crecimiento económico, la
falta de un progreso económico significativo, ocasiona
débiles incentivos para desarrollar un sector productivo
basado en el conocimiento, de hecho muchos de estos países
han luchado por décadas tratando de mejorar sus condiciones
económicas,
obteniendo
únicamente
resultados
decepcionantes (Seck, 2011).
Una de las estrategias de desarrollo debe consistir en buscar
alternativas para acercar el beneficio de la difusión de
tecnología, estrechando las relaciones interindustriales, pues
estas reflejan la compleja naturaleza de la tecnología de
producción, como un sistema de partes interdependientes.
Estas relaciones interindustriales como se mencionó permiten
elevar la productividad lo que a su vez condiciona los
sectores de internacionalización de la economía.
3. METODOLOGÍA
Para la estimación de los flujos de tecnología incorporada de
este trabajo se utilizan los gastos en I+D de las industrias
combinados con los flujos de bienes intermedios de las
matrices input-output o Tablas Oferta Utilización (TOU) de
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
116
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
la economía ecuatoriana, de manera que se pueda separar el
I+D incorporado por la industria del I+D directo. Esta
metodología descansa en dos supuestos: i) el gasto en I+D es
considerado como un recurso importante para la expansión
del conocimiento técnico, y ii) las transacciones comerciales
interindustriales transportan I+D a través de las industrias y
los países, (Papaconstantinou, Sakurai y Wyckoff, 1998).
Los flujos de conocimiento incorporado entre sectores
industriales han sido calculados mediante aproximaciones
input-output desde hace tiempo atrás, siendo los primeros
autores Terleckyj (1974), Scherer (1982), entre otros, para
más adelante ser ampliados por otros estudiosos de la
innovación y el método input-output como Papaconstantinou,
Sakurai y Wyckoff (1998), Amable y Palombarini (1998),
Drejer (2000), Camacho y Rodríguez (2005). A pesar de que
existen otras aproximaciones para el cálculo del I+D directo
de las industrias mediante el uso de patentes, publicaciones,
etc., para el caso de países en desarrollo como el Ecuador, no
se puede aplicar este cálculo puesto que no existe
información relevante al respecto, para Ecuador en este caso,
se hará un primer esfuerzo metodológico para calcular los
flujos de I+D incorporado mediante la información existente
de acuerdo a las últimas publicaciones de los organismos
oficiales.
El método cuantitativo más importante generado para medir
la relación interindustrial es la matriz de insumo-producto o
input-output, misma que es una contribución del Economista
Wassily Leontief (1919-1939), esta se constituye como una
adaptación a la teoría clásica del equilibrio Walrrasiano,
formando una matriz estadística donde se calcula la
interdependencia cuantitativa entre los sectores de la
economía, y de esta manera se manifiestan los hechos reales
a los que se enfrenta la economía (Montilla y Matzavracos,
2008).
Leontief (1975) realiza una conjugación entre el pensamiento
del siglo XVIII y el rigor matemático de Walras, en donde
como supuestos teóricos fundamentales plantea que, las
demandas de los factores son independientes de sus precios;
los precios de los factores primarios son exógenos, la
demanda final también es exógena, y los precios de los
productos son independientes de la estructura de la demanda
(Polo y Valle, 2002). El análisis input-output planteado por
Leontief, tiene un enfoque estructural de la economía,
permitiendo conocer el conjunto de relaciones de producción
de un país, mediante la integración de un esquema contable,
(Gachet, 2005).
En las palabras de Leontief se obtiene el siguiente concepto:
El método Input-Output constituye una adaptación de la
teoría neoclásica del equilibrio general al estudio de la
interdependencia cuantitativa que existe entre aquellas
actividades económicas que guardan entre sí una relación
recíproca (Leontief, 1975). Dentro de las ventajas que
presenta este análisis se pueden destacar entre otros, que
permite estimar los impactos de shocks exógenos en el
producto, el valor agregado y el ingreso de una industria,
ayuda a medir el efecto de las alteraciones en los precios de
los factores o también de las importaciones con respecto a la
oferta de bienes y servicios dentro de la economía (Gachet,
2005). Para entender de mejor manera el funcionamiento de
la matriz input-output, a continuación se esbozará su
metodología de cálculo desde el punto de vista matemático.
En primer lugar se debe comprender que para una economía
compuesta por n industrias, la producción se encuentra
repartida para las otras industrias de acuerdo a los montos
necesarios para sus procesos productivos, esto se conoce
como insumos intermedios, y además la otra parte de la
producción se destina a usos finales. (Gachet, 2005). Las
relaciones entre las industrias se pueden presentar en
términos de coeficientes técnicos, en donde se registran la
cantidad de insumos requeridos en las diferentes industrias
para completar su producción, para el cálculo de estos
coeficientes (aij) una opción puede ser dividiendo cada
insumo intermedio del bien i para la producción total de la
industria j. Esto permite comprender que el consumo del bien
(insumo) i dependerá enteramente de la producción de la
industria j, por tanto los coeficientes técnicos, lo que hacen es
indicar la porción consumida del producto i en la industria j,
de acuerdo al total producido por j.
El modelo input-output, es un modelo netamente de
demanda, donde la producción de la industria j depende de la
demanda final. Para obtener la información respecto a las dos
variables anteriores (producción de j y demanda final) se
utiliza la matriz inversa de Leontief, misma que recoge los
requerimientos totales de insumos, pudiendo ser directos o
indirectos, de cada unidad de producción, teniendo como
supuesto que la estructura de la economía no cambia.
La inversa de Leontief permite medir el impacto generado
por un aumento exógeno en la demanda final sobre las
diferentes industrias que se encuentran interrelacionadas. Lo
anterior se puede expresar de manera matemática en forma de
una matriz:
X  ( I  A) 1Y  BY
(1)
Dónde:
X = vector de la producción
A = matriz cuadrada de coeficientes técnicos
Y = demanda final
I = matriz identidad
B = matriz inversa de Leontief
Para el caso de una economía en donde existan únicamente
dos sectores la Ecuación anterior quedaría de la siguiente
manera:
 X1 
(1  a11 )
 X    a
 2
 21
 a12

(1  a22 )
1
Y1 
Y 
 2
Esta matriz inversa de Leontief es utilizada también para
identificar los encadenamientos o eslabonamientos
productivos, debido a que mide la producción sectorial que
satisface a la demanda de consumos intermedios de las
diferentes industrias de la economía.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
117
Argothy Anderson
_______________________________________________________________________________________________________________________________
Donde B es la matriz inversa de Leontief. Los elementos bij
de la matriz B indicarán el efecto directo e indirecto sobre la
producción del sector i cuando se incrementa en una unidad
la demanda final del sector j (i, j =1… N, con N sectores). El
contenido de innovación del sector j incluirá su propio gasto
en actividades innovadoras como también el gasto en
innovación incorporado en los inputs que adquiere. Se define
entonces la intensidad de innovación directa del sector i a
nivel industrial,
ri
b
n 1
EI j   ri bij*
i 1
(5)
como su gasto directo en actividades de
R
I+D = ( i ) sobre la producción bruta (output, Xi), para
encontrar el gasto en I+D por industria en la economía
ecuatoriana se utilizará los datos del Censo Económico 2011
del Ecuador.
(2)
Una vez que se tiene la intensidad directa de innovación ésta
se la tiene que combinar con la Inversa de Leontief, para esto
se tiene que pre-multiplicar la Ecuación (1) por la matriz
diagonalizada de coeficientes sectoriales de innovación (3),
de manera que se obtiene la matriz T, cuyos elementos
indican la innovación incorporada por unidad de demanda.
T  rˆB
t ij
(3)
La Ecuación (3) relaciona el I+D doméstico incorporado con
los componentes de demanda final. Por lo tanto se tiene que
definir el I+D doméstico incorporado total por unidad de
demanda final en la rama de actividad j de la siguiente forma:
n
rf   ri bij
i 1
Los multiplicadores de Leontief modificados son utilizados
para eliminar el problema de doble contabilización, de
manera que el esfuerzo tecnológico de cada industria
(utilizando como variable bandera el gasto en I+D) puede
definirse como la suma del gasto en I+D de la industria (
R
ri  i
X i (i=1,2,….n)
b
B *  [b ' , b ' ,...b ' ]
j
1
2
n , donde
B* se define como
son los
vectores con 0 en la j-ésima columna. En base a la matriz B*,
el I+D incorporado o esfuerzo innovador indirecto (EII),
mediante los consumos intermedios puede calcularse con la
siguiente ecuación:
(j=1,2…..n)
(4)
Siendo ij los elementos de la inversa de Leontief, ya
definida anteriormente. Dado que la j-ésima columna de la
inversa de Leontief, mide el efecto total directo e indirecto
sobre la producción doméstica cuando la demanda final del jésimo sector varía una unidad, la Ecuación (4) proporciona la
cantidad total de I+D incorporado por unidad de demanda
final de la rama j, (Camacho & Rodríguez , 2005). Sin
embargo el cálculo del I+D incorporado a través de las
compras intermedias domésticas realizadas por rama de
actividad j, es un tanto distinto a lo que se presenta en la
Ecuación (4). Papaconstantinou et al. (1998) explica este
fenómeno indicando que el multiplicador de Leontief
tradicional mide cuanto I+D se incorpora directa e
indirectamente por unidad demanda final del sector j, pero no
cuanto I+D está incorporado en la producción bruta de dicha
rama. Por lo tanto el I+D incorporado por rama de actividad
debe definirse desde el punto de vista del output; para
resolver este detalle, se utiliza una matriz inversa ajustada
(B*). Por tanto se eliminan de la matriz los elementos
correspondientes a la fila y columna j, de esta manera se
identifica cuántos consumos intermedios de todos los
sectores excepto del sector j se necesitan para producir una
unidad de producto en el sector j. Como resultado la matriz
más el I+D incorporado en los bienes intermedios (
(Camacho & Rodríguez , 2005).
ri )
EI j
),
3.1 Fuentes Estadísticas
Para la realización de la investigación se utiliza las bases de
datos del Censo Económico del Ecuador 2011, publicado por
el Instituto Nacional de Estadísticas y Censos (INEC), que
cuenta con 515.000 observaciones de unidades productivas
categorizadas de acuerdo a la revisión CIIU, incluyendo
preguntas respecto a la inversión destinada a actividades de
I+D, de esta manera se calcula el índice de I+D directo, que
sirve de elemento para calcular el flujo de I+D incorporado
entre los sectores industriales mediante las tablas inputoutput. Se trabaja con las Tablas de Oferta y Utilización
(TOU), publicadas por el Banco Central del Ecuador, de
acuerdo al cambio de año base realizado para la economía
ecuatoriana y publicadas en el año 2011, en donde se recoge
la realidad de la economía al año 2007 debido a que para este
año se pueden contar con cifras reales, lo que permite una
mayor exactitud en el resultado de los cálculos, ya que las
TOU cuentan con una desagregación de 71 industrias por 278
productos, identificadas de acuerdo a la Clasificación de
Productos de Cuentas Nacionales (CPCN), lo primero que se
debe realizar es una agregación de manera que las tablas se
vuelvan cuadradas y se pueda posteriormente trabajar con
una matriz simétrica, por lo tanto se transformó las TOU a
medidas de 71 x 71, y de esta manera se proceden a calcular
los diferentes indicadores que serán presentado y analizados a
continuación.
4. RESULTADOS
A continuación se hará un análisis de los resultados obtenidos
luego de aplicar la metodología descrita en el apartado
anterior. La Tabla 1 muestra el Esfuerzo Directo de
Innovación (EDI), el Esfuerzo Indirecto de Innovación (EII),
y el esfuerzo total para las industrias ecuatorianas, ordenadas
por el (EDI).
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
N
38
31
65
54
66
67
48
41
7
37
51
61
5
69
26
45
53
49
44
20
40
64
63
60
33
70
55
21
62
68
42
58
35
12
14
30
57
23
15
Tabla 1. Esfuerzo Directo, Indirecto y total de I+D
Sectores Industriales
Esfuerzo
Esfuerzo
directo
indirecto
I+D
I+D
fabricación de productos
0,333543
0,003793
refinados de petróleo y
otros
bebidas no alcohólicas
0,142922
0,029762
servicios administrativos
0,083386
0,014998
del gobierno y defensa
servicios de comercio
0,070802
0,024933
servicios de enseñanza
0,060067
0,010868
privada
servicios de enseñanza
0,060067
0,003761
pública
equipo de transporte
0,027659
0,027637
productos de caucho
0,021642
0,025557
cría de ganado y productos
0,020592
0,045137
animales
fabricación de papel y
0,019509
0,024478
productos de papel
Electricidad
0,018438
0,192514
actividades y servicios
0,016677
0,013217
financieros
oleaginosas industriales
0,015109
0,026218
servicios sociales y de
0,010699
0,012624
salud no de mercado
elaboración de cacao
0,008567
0,026388
chocolate y productos de
confitería
metales comunes
0,008402
0,031108
trabajos de construcción y
0,006958
0,030460
construcción
muebles de cualquier
0,006799
0,022050
material
cemento artículos de
0,006321
0,081266
hormigón y piedra
aceites crudos y grasas
0,004856
0,031460
vegetales
otros productos químicos
0,004745
0,029573
servicios prestados a las
0,004588
0,022172
empresas y de producción
actividades inmobiliarias
0,004413
0,014450
comunicaciones e
0,003034
0,018722
información
fabricación de hilos hilados
0,002881
0,039133
tejidos y confecciones
entretenimiento recreación
0,002861
0,027338
y otras actividades de
servicio
servicios de reparación y
0,002761
0,007518
mantenimiento de
vehículos de motor y
motocicletas
productos lácteos
0,002590
0,046945
elaborados
servicios de seguros y
0,002212
0,018443
fondos de pensión
servicios sociales y de
0,002179
0,012776
salud de mercado
productos de plástico
0,002110
0,028483
transporte y
0,002032
0,085803
almacenamiento
fabricación de cuero y
0,001802
0,024124
productos de cuero y
calzado
petróleo crudo y gas natural 0,001745
0,023141
minerales metálicos
0,001500
0,031886
elaboración de bebidas
0,001225
0,030283
alcohólicas
servicios de suministro de
0,001210
0,027823
comida y de bebida
productos de la panadería y
0,001179
0,027893
pastelería
minerales no metálicos
0,001041
0,037334
Esfuerzo
total en
I+D
0,337337
N
Continuación Tabla 1. Esfuerzo Directo, Indirecto y total de I+D
Sectores Industriales
Esfuerzo
Esfuerzo
Esfuerzo
directo
indirecto total en
I+D
I+D
I+D
29
0,172684
0,098384
0,095736
0,070935
0,063828
0,055296
0,047199
0,065729
0,043988
0,210952
0,029894
0,041327
0,023323
0,034956
0,039511
0,037417
0,028849
0,087587
0,036316
0,034318
0,026759
0,018863
0,021756
0,042014
0,030199
0,010278
0,049534
0,020655
0,014955
0,030593
0,087835
0,025927
0,024887
0,033386
0,031508
0,029033
0,029072
0,038375
118
otros productos
0,000965
0,033200
alimenticios n.c.p.
3
flores y capullos
0,000905
0,018698
47 fabricación de equipo y 0,000675
0,023504
maquinaria
28 café tostado, molido,
0,000625
0,019767
soluble y otros n.c.p.
56 servicios de hotelería y
0,000533
0,030001
alojamiento
36 fabricación de madera
0,000524
0,034823
y productos de la
madera
27 alimento para animales
0,000507
0,030315
11 acuicultura excepto
0,000463
0,030777
camarón
8
productos de la
0,000463
0,009884
silvicultura
39 productos químicos
0,000457
0,026787
básicos, abonos y
plásticos
34
prendas de vestir
0,000429
0,023997
(inclusive de cuero y
piel)
16 procesamiento y
0,000376
0,051239
conservación de carne
24 fideos, macarrones y
0,000375
0,040592
otros productos
farináceos similares
22 elaboración de
0,000375
0,027812
productos de molinería
71 servicio doméstico y
0,000371
compras directas
25 elaboración y
0,000367
0,042010
refinación de azúcar
46 productos metálicos
0,000359
0,039137
elaborados
1
banano café y cacao
0,000338
0,024578
52 agua servicios de
0,000303
0,016282
saneamiento y gas
10 pesca excepto camarón
0,000259
0,057608
9
agricultura y pesca de
0,000259
0,048934
camarón
59
servicios postales y de
0,000200
0,025767
mensajería
50 otros productos
0,000165
0,010892
manufacturados
17 camarón elaborado
0,000126
0,044712
19 preparados y conservas
0,000126
0,036876
de pescado y de otras
especies acuáticas
18 procesamiento de
0,000126
0,034900
pescados y otros
32 cigarrillos y otros
0,000085
0,029111
productos de tabaco
43 vidrio cerámica y
0,000059
0,073002
refractarios
13 servicios relacionados
0,000042
0,016708
con el petróleo y gas
natural
4
tubérculos vegetales
0,000014
0,015538
melones y frutas
2
cultivo de cereales
0,000004
0,030231
6
servicios relacionados
0,000001
0,031216
con la agricultura
Promedio de las industrias
0,01408
0,03114
Fuente: Elaboración propia
0,034165
0,019603
0,024179
0,020392
0,030534
0,035347
0,030822
0,031240
0,010347
0,027244
0,024427
0,051615
0,040967
0,028187
0,000371
0,042377
0,039497
0,024916
0,016585
0,057867
0,049194
0,025968
0,011057
0,044838
0,037002
0,035026
0,029196
0,073061
0,016750
0,015553
0,030235
0,031217
0,04522
De la Tabla 1 se puede identificar que el sector de mayor
esfuerzo directo en I+D dentro de la economía ecuatoriana es
el (38) fabricación de productos refinados de petróleo y otros,
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
119
Argothy Anderson
_______________________________________________________________________________________________________________________________
dado que esta industria mantiene una alta tasa de gasto en
I+D directo, su flujo de I+D o tecnología incorporada es baja.
El que este sector en el país tenga gastos importantes en
cuanto a I+D es debido a que se trata de un país petrolero,
donde en los últimos años se han hecho importantes
inversiones en laboratorios y capacitación, por supuesto que
debido a una limitación de información esto no puede ser
desagregado de una manera más minuciosa. El siguiente
sector que presenta un valor importante en I+D directa es el
(31), en este sector en cambio se puede apreciar que el nivel
de I+D indirecta es un tanto más moderado, incluso llega a
ser mayor que la I+D directa, esto puede tener una
explicación debido a que es un sector donde conviven
empresas extranjeras y nacionales, por lo que ha existido un
impulso de la parte extranjera privada y también se
mantienen las relaciones entre las empresas nacionales.
Un sector que sin duda en cuanto a investigación y desarrollo
en cualquier país tiene que estar presente en los primeros
lugares es el (65) servicios administrativos del gobierno y
defensa, pues es este sector el que contabiliza el mayor gasto
por parte del estado en cuanto a I+D, y en este caso al ser un
sector altamente protegido las relaciones intersectoriales de
I+D se ven limitados es así que a nivel indirecto se puede
apreciar un valor bajo de tecnología incorporada,
seguramente si se hace un análisis de las interrelaciones de
I+D con el extranjero se podría identificar que el flujo es
mayor. Otros sectores que muestran una importante (EDI)
son los de servicios (54), (66) y (67), aquí cabe destacar la
importante participación de la educación, esto seguramente
está determinado por la importante inversión realizada por el
gobierno a favor de la modernización de este sector. Cabe
destacar la diferencia entre el (EII) entre la educación privada
y la pública, seguramente explicado por la burocracia
existente al momento de realizar compras a otros sectores por
parte de la educación pública, a diferencia de la privada
donde existe mayor facilidad para compras a otros sectores
industriales.
Es importante destacar que la mayoría de los sectores que se
encuentran a la cabeza del esfuerzo directo en innovación son
los sectores industriales manufactureros, a diferencia de los
sectores tradicionales o primarios que cuentan con flujos muy
bajos de I+D directa, debido a la baja demanda de tecnología
y fundamentalmente a las bondades de la naturaleza que
hacen que no sean necesarias mayores inversiones en I+D
para la explotación de los recursos.
Para tener una visión general sobre los resultados obtenidos
de los diferentes indicadores de esfuerzo de innovación de
economía ecuatoriana, la Tabla 2 presenta algunos datos
estadísticos.
Tabla 2. Datos estadísticos de los indicadores intersectoriales de I+D
Estadísticos
ESF_IND_INN ESF_DIR_INN ESF_TOT_INN
71
71
N Válidos 71
0,03114038
0,01408449
0,04522487
Media
0,024960451
0,044756037
0,047903182
Desv. Típ.
0,001
0,002
0,002
Varianza
0,000000
0,000001
0,000371
Mínimo
0,192514
0,333543
0,337336
Máximo
Fuente: Elaboración Propia
De acuerdo a la Tabla 2 se puede apreciar los promedios de
cada una de los indicadores, la desviación típica la cual es
moderada, tomando en cuenta la heterogeneidad de los
sectores industriales en cada uno de los indicadores. La
varianza de igual manera es baja, lo cual muestra que no
existe una dispersión demasiado grande entre los datos
analizados.
A continuación se presenta el 1 que muestra cómo se
encuentra distribuido el esfuerzo directo en innovación de la
industria ecuatoriana con respecto al promedio de esfuerzo
directo de los sectores industriales.
Figura 1. Esfuerzo en innovación directa respecto al promedio de los
sectores industriales.
En la Figura 1 se puede apreciar cómo se encuentran los
sectores industriales en cuanto a esfuerzo directo de I+D con
respecto a la media de los sectores industriales del Ecuador
(0,01408), es evidente que son muy pocos los sectores
industriales que logran superar la media, debido a que el
Ecuador no es un país donde las industrias realicen gastos
constantes en I+D, además de acuerdo a la evidencia
expuesta en el capítulo correspondiente, los países en
desarrollo como el caso de Ecuador reciben innovaciones de
tipo incorporado, ya que aún no cuentan con la base
suficiente de conocimiento acumulado que les permita
desarrollar esfuerzos propios por parte de las empresas y las
industrias para revertir esta tendencia.
Si se analiza por otro lado el esfuerzo indirecto en
innovación, que comprende los flujos de tecnología
incorporada recibidos por un sector de parte de las otras
industrias, se puede constatar que efectivamente existe
evidencia sobre lo manifestado por Papaconstantinou,
Sakurai, y Wyckoff (1998), cuando indican que los países en
vías de desarrollo reciben mayores flujos de tecnología
incorporada por parte de las industrias. La Figura 2 muestra
el esfuerzo indirecto en innovación de la industria
ecuatoriana comparada con el esfuerzo indirecto promedio de
todas las industrias.
Figura 2. Esfuerzo en innovación indirecta respecto a promedio.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
120
En este figura en primer lugar hay que destacar que la media
del esfuerzo indirecto de todas las industrias (0,03114), tiene
una valor más alto que en el caso de la media del esfuerzo
directo, lo que podría indicar que los sectores industriales de
la economía del Ecuador reciben mayor tecnología
incorporada.
En segundo lugar hay que subrayar que la cantidad de
sectores industriales que se encuentran sobre la media es
superior al caso del esfuerzo directo en innovación, por lo
tanto hay evidencia respecto a la forma de integrar tecnología
en el proceso de producción en los países en vías de
desarrollo, es en base a los flujos interindustriales.
Dentro de este figura se pueden apreciar sectores que
destacan de manera notoria, es el caso de (51) electricidad, el
mismo que según los resultados recibe un fuerte aporte de
tecnología incorporada por parte del resto de sectores
industriales, esto puede tener una explicación en primer lugar
debido a que no se está haciendo ninguna separación dentro
de electricidad por tipo de fuente, por lo tanto en este sector
se están concentrando los esfuerzos tanto de electricidad por
energía renovable, como no renovable, además hay que
indicar que este sector incluye producción y
comercialización.
Este valor también puede ser afectado por la cantidad de
demanda del sector respecto a otros sectores debido a los
grandes proyectos hidroeléctricos en los cuales el Ecuador se
encuentra inmerso, por ejemplo, Verdeyacu Chico, Naiza,
Zamora San Juan Bosco, Zamora Salto (1, 2 y 3), entre otros,
todos estos con una potencia superior a 100 MW, además de
esto la incursión dentro de la energía solar y eólica, (Consejo
Nacional de Electricidad, 2011).
Otro sector que cuenta con un flujo alto de tecnología
incorporada es (58) transporte y almacenamiento, el cual esta
recibiendo tecnología incorporada fruto de las adquisiciones
de equipos de transporte y otros sectores como el de
comercio de vehículos o ensamblaje, cabe destacar que se
han emprendido proyectos por parte del Gobierno
ecuatoriano como el Plan Renova, que busca modernizar toda
la planta del transporte público. Esto hace que haya un
impulso y que se vea reflejado también en el flujo de
tecnología incorporada, valor que al incrementar la demanda
de un sector se va a ver afectado positivamente.
Sectores que merecen ser destacados también son el (10),
(16), (17), (21), (44), pues sus valores de Esfuerzo Indirecto
en Innovación son representativos, lo que muestra que éstos
están recibiendo un importante aporte del resto de sectores
industriales, además de que mantienen relaciones constantes
con el resto de sectores, lo cual es necesario tomando en
cuenta que es una forma de fortalecer el mercado interno. En
la Figura 3 que se presenta a continuación se ubica en el
plano a los dos indicadores para cada uno de los sectores.
Figura 3. Comparación de los dos sectores indicadores de innovación
En la Figura 3 se puede apreciar como los sectores que
cuentan con altos niveles de I+D directo (barras azules),
reciben bajos flujos de tecnología incorporada (barras
verdes), por el contrario se puede apreciar como en la
mayoría de los casos es el verde el color dominante, lo que
significa que el flujo de tecnología incorporado es más
representativo, permitiendo evidenciar la importancia de la
tecnología incorporada dentro de los países en vías de
desarrollo. Como se aprecia en la figura las industrias
mantienen un valor similar de flujo de tecnología excepto en
algunos casos (31), (38), (51), (66), donde los valores son
considerablemente diferentes, pero debido a que es una
cantidad mínima, se puede asumir que son casos que podrían
ser afectados por factores especiales que en este trabajo no
serán analizados.
Si se analiza cuál es la situación de los indicadores de
esfuerzo en I+D para los sectores tradicionales de
internacionalización de la economía ecuatoriana se obtiene
los siguientes resultados.
No.
1
9
17
Tabla 3. Indicadores de I+D de los sectores tradicionales de
internacionalización.
Sector Industrial
Esfuerzo
Esfuerzo
Esfuerzo
indirecto en directo en total en
I+D
I+D
I+D
banano café y cacao
0,024578
0,000338
0,024916
agricultura y pesca de
camarón
camarón elaborado
0,048934
0,000259
0,049194
0,044712
0,000126
0,044838
12
petróleo crudo y gas 0,023141
0,001745
0,024887
natural
13
servicios relacionados 0,016708
0,000042
0,016750
con el petróleo y gas
natural
38
fabricación
de 0,003793
0,333543
0,337337
productos refinados
de petróleo y otros
Promedio
todos
los 0,03114
0,01408
0,04522
Sectores
Fuente: Elaboración Propia
En la Tabla 3 se muestra cuáles son los niveles de esfuerzo
directo, indirecto y total de I+D dentro de los sectores
tradicionales de internacionalización del Ecuador, cabe
destacar que son sectores primarios, mismos que se basan en
las bondades de la naturaleza antes que en los esfuerzos en la
técnica.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
121
Argothy Anderson
_______________________________________________________________________________________________________________________________
Figura 4. Esfuerzo directo en I+D sectores tradicionales
La Figura 4, muestra el esfuerzo directo en I+D de los
sectores tradicionales de exportación, se puede apreciar que
los valores no son representativos, pues se encuentran por
debajo de la media del total de las industrias (0,01408), el
único caso en que se supera este valor es en el sector (38),
que no ha sido incluido debido a la distorsión que genera en
la figura por su alto valor. Al ser todas exportaciones
primarias, los valores de I+D directo son mínimos pues se
basan en la renta de la naturaleza antes que el uso de la
investigación y la ciencia.
Tabla 4. Indicadores de I+D de los no tradicionales de internacionalización
No. sector Industrial
Esfuerzo
Esfuerzo
Esfuerzo
indirecto directo
total en
en I+D
en I+D
I+D
3
flores y capullos
0,018698
0,000905
0,019603
4
tubérculos
0,015538
0,000014
0,015553
vegetales melones
y frutas
14
minerales
0,031886
0,001500
0,033386
metálicos
15
minerales
no 0,037334
0,001041
0,038375
metálicos
32
Cigarrillos y otros 0,029111
0,000085
0,029196
productos
de
tabaco
36
fabricación
de 0,034823
0,000524
0,035347
madera
y
productos de la
madera
Promedio todos los 0,031140
0,014080
0,04522
sectores
Fuente: Elaboración Propia
En la Tabla 4 se muestran tanto el esfuerzo directo, indirecto
y total en I+D de los sectores no tradicionales primarios, al
igual que en el caso anterior al ser materias primas en su
mayoría, no se puede apreciar valores altos de I+D, mientras
que para el incorporado si existe unos resultados mayores.
Estas industrias no demandan demasiada I+D de las otras
industrias, a pesar de que existe un flujo comercial constante.
Figura 5 Esfuerzo indirecto en I+D sectores tradicionales
Figura 6. Esfuerzo directo en I+D sectores no tradicionales primarios.
Como se puede apreciar en la Figura 5, los sectores
tradicionales al ser poco intensivos en elementos
tecnológicos, no reciben una cantidad considerable de
tecnología incorporada de parte de otros sectores industriales
por lo que únicamente las industrias (9) y (17) están sobre el
valor de la media de todas las industrias, sin embargo como
se aprecia, el indicador de intensidad indirecta de I+D es
mayor que la intensidad directa, por lo que hay evidencia de
que estos sectores al no realizar I+D directa, compensan
mediante tecnología incorporada, pues si se ve los resultados
del esfuerzo total de I+D de la Tabla 3 se aprecia que todos
los sectores tienen valores representativos.
Los valores del EDI, para el caso de los sectores primarios no
tradicionales, son bajos debido a que son industrias que
producen materias primas salvo en el caso de los sectores
(14) y (15) que al ser de minerales requieren maquinaria, lo
que hace que los empresarios estimen la compra de esta como
esfuerzo en I+D, sin que esto sea necesariamente lo correcto
desde el punto de vista académico de la innovación.
Si se analizan los indicadores de intensidad de I+D, de los
productos no tradicionales primarios, se puede apreciar que la
situación no cambia demasiado.
Figura 7. Esfuerzo indirecto en I+D sectores no tradicionales primarios.
Como se manifestó anteriormente el EII posee valores más
altos que el EDI. Esto se debe a que para la producción de
estas materias primas se necesita de ciertos insumos que se
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
122
adquieren de las otras industrias lo que genera que se
transfiera parte de la tecnología utilizada por las industrias de
manera incorporada a los diferentes ciclos de producción de
la industria demandante, en este caso se puede ver que
únicamente los sectores (14), (15) y (36) superan la media de
los sectores industriales, es entendible puesto que estos
sectores requieren maquinaria más compleja.
Existen además sectores no tradicionales industriales que han
logrado internacionalizarse de manera adecuada en los
últimos años, a continuación se presenta un análisis sobre
estos.
Tabla 5. Indicadores de I+D sectores no tradicionales industriales.
No. Sector Industrial
Esfuerzo
Esfuerzo Esfuerzo
indirecto
directo
total en
en I+D
en I+D
I+D
5
oleaginosas
0,026218
0,015109
0,041327
industriales
18
procesamiento
de 0,034900
0,000126
0,035026
pescados y otros
19
preparados
y 0,036876
0,000126
0,037002
conservas de pescado
y de otras especies
acuáticas
20
aceites crudos y 0,031460
0,004856
0,036316
grasas vegetales
31
bebidas
no 0,029762
0,142922
0,172684
alcohólicas
33
fabricación de hilos 0,039133
0,002881
0,042014
hilados tejidos y
confecciones
34
prendas de vestir 0,023997
0,000429
0,024427
(inclusive de cuero y
piel)
35
fabricación de cuero 0,024124
0,001802
0,025927
y productos de cuero
y calzado
37
fabricación de papel 0,024478
0,019509
0,043988
y productos de papel
39
productos químicos 0,026787
0,000457
0,027244
básicos, abonos y
plásticos
40
otros
productos 0,029573
0,004745
0,034318
químicos
41
productos de caucho
0,025557
0,021642
0,047199
42
productos de plástico 0,028483
0,002110
0,030593
46
productos metálicos 0,039137
0,000359
0,039497
elaborados
Promedio todos los sectores
0,031140
0,014080
0,0452
Fuente: Elaboración Propia
En la Tabla 5 se puede observar los resultados obtenidos de
los indicadores tanto de esfuerzo directo, indirecto y total de
los sectores de internacionalización no tradicionales
industriales del Ecuador, donde se debe destacar que excepto
por las industrias (5), (31), (39) y (40), el resto de industrias
no son intensivas en tecnología lo que se convierte en un
determinante en el momento de analizar el esfuerzo directo
de innovación, que presenta valores bajos debido a esta
condición. Por otra parte esto se ve compensado con
tecnología incorporada recibida mediante las transacciones
comerciales con el resto de industrias.
Figura 8. Esfuerzo directo en I+D sectores no tradicionales industriales.
La industria (31) es la más representativa dentro del esfuerzo
directo en I+D de los sectores no tradicionales industriales,
una razón puede ser las inversiones realizadas por las
empresas extranjeras y nacionales las cuales cuentan con
plantas de producción y embotellamiento, además de que
constantemente están lanzando nuevos productos al mercado.
Otros sectores que destacan dentro de este cuadro son (5),
debido a un incremento en la demanda de sustancias
oleaginosas por parte del exterior lo que impulsado la
inversión y la investigación en este campo. (37) la
fabricación de papel es una industria nueva en el país, razón
por la cual se han realizado inversiones en este sentido. (41)
debido a la alta competencia externa en este campo se ha
invertido en dotar tecnológicamente a este sector. Debido a
que estos sectores son manufactureros, existe una mayor
preocupación por la I+D. De todos los sectores de
internacionalización analizados son estos los que mayores
valores de I+D directo poseen.
Figura 9. Esfuerzo indirecto en I+D sectores no tradicionales industriales.
Las industrias no tradicionales que se han vinculado al
exterior, como se puede apreciar reciben un importante flujo
de tecnología incorporada del resto de sectores. De esta
manera se suple la falta de inversión directa en I+D. Dentro
de este figura cabe destacar algunos sectores que se
encuentran sobre la media de las industrias como es el caso
de (18), (19), (33) y (46). Estas actividades han tenido un
fuerte apoyo por parte del gobierno mediante el fomento para
la compra de maquinaria, actualización de conocimientos. En
el caso de los textiles, la restricción de las importaciones está
permitiendo que el sector se desarrolle lo que a su vez
incrementa la demanda de productos intermedios, generando
que el flujo de tecnología incorporada que proviene del resto
de industrias aumente. Se puede esperar que si las
condiciones continúan así paulatinamente se irá remplazando
el I+D obtenido mediante productos intermedios, por I+D
directo.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
123
Argothy Anderson
_______________________________________________________________________________________________________________________________
5. CONCLUSIONES Y RECOMENDACIONES
En base a los resultados obtenidos luego de aplicar la
metodología y analizar los datos se puede argumentar las
siguientes conclusiones, tomando en cuenta las hipótesis
iniciales y las preguntas de investigación:
En el Ecuador existen sectores industriales que destacan
respecto a la intensidad de I+D directa, los cuales son pocos
y tienen que ver principalmente con sectores manufactureros
en su mayoría. Por otra parte si clasificamos a las industrias
de acuerdo al flujo de tecnología incorporada recibida de los
diferentes sectores industriales se puede apreciar que se trata
de diferentes sectores.
Al igual que en el caso de los sectores que presentan
mayores esfuerzos directos en I+D, los que manifiestan un
superior flujo de tecnología incorporada son aquellos que
tienen que ver con manufacturas que demandan insumos
intermedios de las otras industrias. Reciben tecnología
mediante las diferentes transacciones comerciales. Estas
industrias tienen que ser analizadas con detenimiento para de
manera paulatina ir cambiando las relaciones entre I+D
directa en indirecta, de forma que las industrias por si
mismas empiecen a elevar sus gastos en I+D provocando
que se manifieste innovación abierta y cerrada, pues no se
puede pretender que las industrias por si solas desarrollen
todas las innovaciones que necesitan para su proceso
productivo.
Los sectores de internacionalización de la economía
ecuatoriana tanto tradicionales como no tradicionales,
poseen un bajo nivel de I+D directa, excepto en el caso del
sector (12), el cual por ser una industria de muchos años en
el Ecuador, además de que ha recibido un fuerte apoyo por
parte del gobierno para su modernización, presenta niveles
importantes de I+D directa. Cabe destacar que estos sectores
tradicionales están basados en la renta de la naturaleza, lo
que hace que los empresarios se despreocupen de realizar
inversiones en I+D de manera que se mejore las
características del producto y la producción, esto hace
además que no reciban cantidades considerables de
tecnología incorporada, debido a que son sectores de baja
demanda tecnológica así como poca cualificación. En el
caso de los sectores de internacionalización no tradicionales
ocurre lo mismo, una baja I+D directa excepto en las
industrias (14) y (15), que tiene que ver con minerales, que
reclaman un poco más de tecnología. Si se analiza el nivel
de tecnología incorporada de estos sectores se puede
apreciar que reciben un flujo mayor, pues son sectores que
han tenido un incremento en su demanda en los últimos
años, lo que hace que demanden más insumos intermedios
que incorporan tecnología del resto de sectores industriales.
De todas maneras estos sectores no dejan de ser primarios
pues no realizan un proceso de agregación de valor
demasiado sofisticado, más allá de la preparación del
producto y su embalaje.
Para el caso de los sectores de internacionalización no
tradicionales industriales, se puede apreciar que al ser éstos
manufacturas, poseen mayores esfuerzos de I+D directo,
además de un flujo de tecnología incorporada superior pues
demandan productos de varios de los otros sectores
industriales. Sin embargo estos sectores siguen siendo de
baja cualificación excepto en el caso de las industrias (39),
(40), (41), (42), que tienen que ver con química, plásticos y
caucho. Por lo tanto estos sectores deben ser tomados en
cuenta por el gobierno para lograr una mejora de su
potencial y que puedan en el futuro generar mayores
innovaciones así como mantengan un mayor nivel de I+D
directo, sin olvidar por supuesto la importancia de las
relaciones con el resto de elementos del sistema nacional de
innovación.
En este trabajo se ha podido exponer evidencia sobre la
teoría que manifiesta que los países en desarrollo, o que no
cuentan con tecnología desarrollada de manera propia,
tendrán que recurrir a tecnología incorporada como un
mecanismo para incluir tecnologías dentro de su proceso de
producción, por lo que sus niveles de tecnología incorporada
serán superiores a los niveles de I+D directa, (Savvides y
Zachariadis, 2002), (Seck, 2011). Como se ha podido
apreciar en el estudio, en la mayoría de los sectores
industriales, salvo en contados casos, es siempre superior el
nivel de tecnología incorporada frente al nivel de I+D
directo, lo que indica que efectivamente los países en
desarrollo utilizan este mecanismo para tratar de reducir el
gap tecnológico existente con los países desarrollados. Esta
situación por otra parte, genera una fuerte dependencia hacia
el extranjero, y un rezago pues el nivel de avance del país en
desarrollo dependerá de su capacidad para obtener
tecnología externa e incorporarla a sus procesos de
producción, lo que dependerá del conocimiento acumulado
sobre el área y de la capacidad de pago de patentes y demás
licencias, así como de la capacitación del personal que opere
la nueva tecnología.
De esta investigación se pueden dar algunas
recomendaciones respecto a la política de I+D que puede
seguir el Estado Ecuatoriano, en primer lugar se debe
entender que aún se continúa especializando en productos
basados en la bondad de la naturaleza, lo que significa que
poseen bajo nivel tecnológico y requieren de muy poca
capacitación por parte de los trabajadores. Por tanto, es
necesario que se realice un cambio paulatino hacia sectores
de mayor demanda tecnológica, así como de fuerza laboral
con alta capacitación y conocimientos. Es fundamental que
exista una articulación conjunta de políticas en fomento de la
I+D de manera que se cree un verdadero Sistema Nacional de
Innovación, que ayude a que las industrias que poseen altos
niveles de I+D directa continúen por esa senda vinculando
mayores investigadores. Por otra parte, aquellas industrias
que cuentan con un nivel medio de I+D directa, puedan ser
entendidas como focos potenciales de desarrollo tecnológico
por lo que se les debe incluir dentro de los sectores
estratégicos del Estado. Para las industrias que cuentan con
buen potencial internacional pero que únicamente se basan en
flujos de tecnología incorporados de otros sectores, es
necesario que sean tomados en cuenta de manera que se vaya
disminuyendo la carga de I+D indirecta para dar paso a
mayor I+D directa, de tal forma que empiecen a desarrollar
innovaciones propias que permitan su inclusión dentro de la
nueva economía mundial basada en el conocimiento.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria
_________________________________________________________________________________________________________________________
Limitaciones
Una limitación del estudio es que no puede ser comparado
con estudios anteriores del mismo tipo en el Ecuador, ya que
es el primer acercamiento respecto a I+D incorporada, por lo
que no se puede identificar si existe una mejora o no en el
tiempo.
Al ser una primera aproximación, no se puede utilizar
variables más sólidas para generar el indicador de I+D
directo, como sería el caso de patentes, publicaciones
científicas, número de investigadores, etc., sino que
únicamente se utilizará la porción de gasto en I+D por sector
industrial de la producción total.
La utilización de tablas input-output presenta una limitación
metodológica debido a su carácter estático y no dinámico
como sería lo adecuado, sin embargo al ser basado en un
modelo de equilibrio general, puede ser extrapolado en el
futuro, hasta que se de una actualización de las TOU.
Finalmente, la principal limitación de las economías en
desarrollo tiene que ver con la información, la cual es difícil
de obtener, sin embargo se ha hecho un esfuerzo para
condensar toda la información necesaria de manera que el
estudio sea lo más apegado a la realidad posible.
124
Davis, L. (1988). Technology intensity of U.S., Canadian, and Japanese
manufactures output and exports. United States. International Trade
Administration. In Redelycs, La difusión de tecnología (1996) (Vol. III, pp.
17-18). Argentina: Universidad Nacional de Quilmes.
Dosi, G. (1982). Technological Paradigms and Technological Trajectories. A
Suggested Interpretation of the Determinants and Directions of Technical
Change. Research Policy(11), 147-162.
Dosi, G., & Nelson, R. (2009). Technical Change and Industrial Dynamics
as Evolutionary Processes. Amsterdam: Laboratory of Economics and
Management.
Dosi, G., Pavit, K., & Soete, L. (1990). The Economics of Technical Change
and International Trade. Londres: Harvester Wheatsheaf.
Drejer, I. (2000). Comparing Patterns of Industrial Interdependence in
National Systems of Innovation - A Study of Germany, the United Kingdom,
Japan and the United States. Economic Systems Research, 12(3), 377-399.
Dunning, J. (1994). Multinational Enterprises and the Globalization of
Innovatory Capacity. Research Policy, 23, 67088.
Dunning, J. (1995). Reappraising the Eclectic Paradigm in an Age of
Alliance Capitalism. Journal of International Business Studies, 26, 461-491.
Freeman, C. (1975). La teoría de la innovación idustrial. Madrid: Penguín
Alianza.
Gachet, I. (2005). Efectos Multiplicadores y Encadenamientos Productivos:
Análisis Input-Output de la Economía Ecuatoriana. (B. C. Ecuador, Ed.)
Cuestiones Económicas, 21(3:3-3), 97-134.
González, R. (2011). Diferentes Teorias del Comercio Internacional.
Tendencias y Nuevos Desarrollos de la Teoría Económica(858), 103-118.
REFERENCIAS
Abernathy, W., & Utterback, J. (1978). Patterns of industrial innovation.
Technology, 41-47.
Amable, B., & Palombarini, S. (1998). Technical change and incorporated
R&D in the service sector. Research Policy, 27(7), 655-675.
Archibugi, D., & Michie, J. (1995). The Globalisation of Technology: a new
taxonomy. Cambridge Journal of Economics, 19, 121-140.
Barcenilla , S., & López, C. (1996). Tecnología y comercio desde el enfoque
evolucionista. Ekonomiaz: Revista vasca de economía(36), 58-77.
Ingram, J. (1993). Economía Internacional. México: Limusa.
Keller, W. (2004). International Technology Diffusion. Journal of Economic
Literature, XLII, 752-782.
Leontief, W. (1975). Analisis Económico Input-Output. Barcelona: DEMOS
Biblioteca Económica de la Ciencia.
List, F. (1841). Sistema Nacional de Economía Política. Alemania.
Marshall, A. (1890). Principios de Economia. Londres: McMillan.
Becattini, G. (2005). : La oruga y la mariposa: Un caso ejemplar de
desarrollo en la Italia de los distritos industriales:. Valladolid: Universidad
de Valladolid.
Molero, J. (2001). Innovación Tecnológica y Competitividad en Europa.
Madrid: Editorian Síntesis S. A.
Bellandi, M. (1996). Innovation and change in the Marshallian industrial
districts. In Eurpean Planning Studies (Vol. 4, pp. 357-368).
Montilla, F., & Matzavracos, J. (2008). ALGUNAS CONSIDERACIONES
SOBRE EL ANÁLISIS ECONÓMICO INSUMO-PRODUCTO. FACESUNIVERSIDAD DE CARABOBO.
Camacho, J., & Rodríguez , M. (2005). Los esfuerzos tecnológicos en el
sistema productivo español: evaluación y comparación con otros países
europeos. Estudios de Economía Aplicada, 23(3), 621-636.
Camacho, J., & Rodríguez, M. (2005). Los esfuerzos tecnológicos en el
sistema productivo español: evaluación y comparación con otros países
europeos. Estudios de Economía Aplicada, 23(3), 621-636.
Coase, R. (1937). The Nature of the firm. Económica, 386-405.
Cohen, W., & Levinthal, D. (1989). Innovation and Leaming: the two faces
of R&D. The Economic Journal, 569-596.
Consejo Nacional de Electricidad. (2011). Proyectos Hidroeléctricos.
Recuperado
el
4
de
Julio
de
2012,
de
CONELEC:
http://www.conelec.gob.ec/contenido.php?cd=1348&l=1
David, P., & Foray, D. (2001). An Introduction to the Economy of the
Knowledge Society. (U. o. Oxford, Ed.) Economics Series Working
Papers(84).
Narula, R., & Dunning, J. (2000). Industrial Development, Globalization and
Multinational Enterprises: New Realities for Developing Countries. Oxford
Development Studies, 28(2), 141-167.
Nonaka, I., & Takeuchi, H. (1995). The knowledge-creating company: how
japanese companies create the dynamics of innovation. New York: Oxford
University Press.
OCDE. (1988). Science and technology policy outlook. Reino Unido:
Organisation for Economic Co-operation and Development.
Oddone, N., & Granato, L. (2005, Julio). Empresas multinacionales: de
impactos reales y ficticios. Retrieved from http://www.eumed.net/ce/
OMC. (1996, Octubre 9). Organización Mundial de Comercio. Retrieved
Febrero 9, 2012, from El Comercio y la Inversion Extranjera Directa:
http://www.wto.org/spanish/news_s/pres96_s/pr057_s.htm
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
125
Argothy Anderson
_______________________________________________________________________________________________________________________________
Papaconstantinou, G., Sakurai, N., & Wyckoff, A. (1998). Domestic and
international product-embodied R&D diffusion. Research Policy(27), 301314.
Pavitt, K. (1984). Sectoral Patterns of Technical Change: Towards a
Taxonomy and a Theory . Research Policy, 343-373.
Pavitt, K., & Patel, P. (1999). Global corporations and national systems of
innovation: who dominates who?
Polo, C., & Valle, E. (2002). Un Análisis Input-Output de la Economía de
Balear. Estadística Espanola, 44(151).
Posner, M. (1961). Internacional Trade and Technical Change. Oxford
Economics, 323-341.
Quesnay, F. (1764). Tableau économique (1972 ed.). (M. K. Meek, Trans.)
Paris: Petri du Pont.
Redalyc. (1996). La disfusión de tecnología. REDES, III(8), 129-161.
Ricardo, D. (1817). Principios de Economía Política y Tributación (1975
ed.). Madrid: Aguilar.
Robson, M., Townsend, J., & Pavitt, K. (1988). Sectoral patterns of
production and use of innovations in the UK: 1945–1983. Research Policy,
17(1), 1-14.
Ronderos, C. (2010). Inversión Extranjera y Competitividad. Globalización,
Competitivilidad y Gobernabilidad, 4(2), 72-87.
Retrieved Mayo 10, 2012, from Yale University's Economic Growth Center:
http://www.bus.lsu.edu/economics/papers/pap02_20.pdf
Scherer, F. (1982). Inter-industry technology flows in the United States.
Research Policy, 11(4), 227-245.
Schumpeter, J. A. (1947). The creative Response in Economic History.
Journal of Ecnomics History, 7(2), 149-159.
Seck, A. (2011, Febrero). International technology diffusion and economic
growth: Explaining the spillover benefits to developing countries. Structural
Change and Economic Dynamics, 30, 1-15.
Smith, A. (1776). La Riqueza de las Naciones. Escocia.
Solow, R. (1957). Technical Change and the Aggregate Production Function.
The Review of Economics and Statistics, 39(3), 312-320.
Terleckyj, N. (1974). Direct and indirect effects of the industrial research and
development on the productivity growth of industries. In J. Kendrick, & B.
Vaccara, New Developments in Productivity Measurement (pp. 357-386).
Massachusetts: National Bureau of Economic Research.
Vernon, R. (1966). International Investment and International Trade in the
Product Cicle. Quaterly Journal Economics, 80, 190-207.
Walras, L. (1954). Elements of Pure Economics. (W. Jaffí, Trans.) London:
Allen-Unwin.
Welch, L., & Loustarinen, R. (1998). Internacionalization: Evolution of a
Concept. Journal of General Management, 22(2), 34-55.
Savvides, A., & Zachariadis, M. (2002). International Technology Diffusion
and Growth in the Manufacturing Sector of Developing Economies.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
126
Análisis del beneficio marginal del gasto público y sus servicios
Carrillo Maldonado Paúl A.

Ministerio Coordinador de Política Económica, Subsecretaría de Consistencia Macroeconómica, Quito, Ecuador
Resumen: El presente estudio tiene el objetivo de conocer la distribución del gasto público y sus servicios en la
población de Ecuador en el año 2013. Se utiliza la metodología de análisis de incidencia del beneficio a nivel de
hogar. Los resultados muestran que la distribución y su mayor acceso dependen de la naturaleza (o focalización) del
servicio. La educación, salud, registro civil, transporte y carreteras son los servicios públicos con una distribución
equitativa, aproximadamente. Mientras que, las prestaciones del SRI y del IESS son más utilizadas por el quintil
más alto, que los otros, siendo los menos progresivos, respecto al ingreso per cápita.
Palabras clave: Bien público, gasto público, incidencia marginal, bienestar, pobreza
Marginal benefit analysis of public spending and their services
Abstract: In this study, the goal is determine the distribution of public expenditure and services in the population of
Ecuador in 2013. We use the methodology of benefit incidence analysis at the household level. The results show
that the distribution and greater access depends on the nature (or targeting) service. Education, health, civil
registration, road transport and public services are equitable. While, the performance of SRI and the IESS are used
by the top quintile, the other being the least progressive relative to per capita income.
Keywords: Public good, public expenditure, marginal incidence, welfare, poverty
1
1. INTRODUCCIÓN
Los actuales sistemas económicos tienen una naturaleza
mixta; es decir, se caracterizan por la interacción de los
sectores privado y público. Esto se debe a que el mercado no
provee todos los bienes para satisfacer las necesidades de un
país y tampoco puede funcionar eficientemente, como
postularon los mercantilistas y Adam Smith. En este sentido,
la aparición del Estado en la economía es indispensable para
proveer bienes (públicos y de mercado) que satisfagan las
necesidades individuales y sociales que mejoren el bienestar
de la población.
Para este accionar del Estado es necesaria la contribución (en
términos impositivos) de la sociedad que posibilita financiar
la provisión de los bienes públicos. Las políticas de
desarrollo que el gobierno ejerza con esta imposición deben
tener una recaudación eficaz, un manejo sostenible de los
recursos y una asignación eficiente de los mismos. De esta
manera, los ciudadanos percibirán que el gasto en estas
necesidades será justo y seguirán aportando en el sistema
tributario.
¿Cómo aseverar que el gasto público es justo? Es una
pregunta difícil porque la intervención del Estado implica el
involucramiento de varias instituciones; además, que se debe
partir la noción de justicia que hace referencia dar a cada uno
lo que le corresponde y esto no implica necesariamente
equidad. No obstante, la identificación de los usuarios del
bien (o servicio) público facilita su evaluación ya que se
puede medir su satisfacción o acceso. Además, se debe tener
presente que la valoración de estos es compleja puesto que el
mercado no es un referente confiable; es decir, el precio de
mercado puede subestimar el valor que ponga la sociedad y,
también, por lo general, estos bienes son racionalizados
(entregados de manera discrecional) por el gobierno, por
diferentes motivos. Esto no sucede con las transferencias
monetarias porque se puede identificar a los consumidores y
su valor ya está dado en el programa.
Una alternativa para la valoración es el presupuesto utilizado
en el programa, servicio o bien. En base a esto, identificar el
acceso que tienen los usuarios para luego compararlos entre
grupos y evaluar el gasto público. Esta comparación puede
guiarse por el acceso entre los diferentes niveles del ingreso,
esta metodología se conoce como Análisis de Incidencia del
Beneficio (Benefit Incidence Analysis, BIA).
Con estos antecedentes, en el presente documento se analiza
el efecto distributivo que tienen los servicios públicos que
provee el Estado ecuatoriano. Para cumplirlo, se utiliza el
análisis de incidencia del beneficio en la sección de servicios
públicos de la Encuesta Nacional de Empleo, Desempleo y
Subempleo (ENEMDU), realizada en diciembre de 2013. Un
punto clave en esta investigación es averiguar que parte de la
distribución del ingreso se beneficia cuando se aumenta el
acceso de los servicios considerados.
[email protected].
Las estimaciones y los resultados de la investigación se pueden encontrar en la página
del autor: https://sites.google.com/site/paulacarrillomaldonado/.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
127
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
El resto del documento tiene la siguiente repartición: la
siguiente sección expone los argumentos teóricos para la
intervención del Estado en el sistema económico y los
preceptos que deben guiar su política; la tercera sección
presenta la metodología utilizada en el análisis de incidencia.
La cuarta parte muestra los resultados encontrados con la
ENEMDU. En la última se concluye.
2. ESTADO Y LOS SERVICIOS PÚBLICOS
Los sistemas económicos actuales tienen naturaleza mixta: se
caracterizan por la interacción combinada del sector privado
y público (Musgrave y Musgrave, 1992). Para Stiglitz (2000),
el debate sobre esta naturaleza y el papel económico del
Estado inicia en el siglo XVIII y se consolida con la Gran
Depresión en 1929. Este autor propone las siguientes
preguntas para el estudio de la economía del sector público:
¿por qué el Estado realiza solo unas actividades económicas
y no otras? ¿Ejecuta demasiadas actividades? ¿Estas son
eficientes? ¿Podría hacer mejor su papel económico?”
(Stiglitz, 2000). Mientras que, Musgrave (1968) ya plantea
tres funciones fundamentales inseparables del Estado en la
economía: asignación, distribución y estabilización.
Las preguntas de Stiglitz y las funciones de Musgrave
abarcan el diseño de la política presupuestaria del Estado.
Esta puede abordarse desde dos enfoques. Por un lado,
determinar las reglas y principios que rigen el presupuesto
para que sea óptimo, con base en condiciones iniciales de su
formulación, llamada teoría normativa de la economía
pública. Por otro lado, tratar de explicar la utilización y
permanencia de las políticas existentes y predecir la posible
adaptación de nuevas en el futuro, semejante a una sociología
de la política fiscal. Sin importar el método que se use, es
claro que se debe estudiar la reacción que tiene el mercado
ante la presencia (o ausencia) del Estado (Musgrave, 1968).
Según Stiglitz (2000), el debate sobre el papel económico del
Estado en el mercado se remonta al siglo XVIII. En esta
época, los mercantilistas franceses propusieron que el Estado
debería fomentar el comercio e industria del país, no más.
Esta idea fue impulsada por Adam Smith en su obra “La
riqueza de las naciones” (1776). Ahí recomendaba que el
papel del Estado debería ser limitado, intentando demostrar
que la competencia y el ánimo de lucro de los individuos
llevaría al bienestar público. Estos conceptos penetraron tanto
en los economistas y los poderes contemporáneos, que el
Estado dejó sin control ni regulación al sector privado y solo
la competencia ilimitada asignaría eficientemente los
recursos.
En el mismo tiempo, estas ideas tan innovadoras de Adam
Smith y sus seguidores (por ejemplo, John Stuart Mill) no
convencieron a todos los estudiosos de la sociedad. Sismondi,
Owen o Marx, por nombrar algunos, se preocuparon por
explicar la desigualdad de la renta, el desempleo y la pobreza
existentes y sugirieron otras formas de organizar la sociedad,
no solo la de mercado. Entre estos, Karl Marx fue el defensor
más influyente sobre la intervención del Estado en la
asignación de los medios de producción. Sin embargo, no es
hasta la Gran Depresión, donde el Estado tuvo que intervenir
activamente para que los países industrializados,
especialmente Estados Unidos, superen tal crisis. Los
postulados de impulso de la demanda de John Maynard
Keynes fueron fundamentales en las políticas de los
gobiernos de esa época. Además, se llegó a la conclusión de
que el mercado, por sí solo, había fallado (Stiglitz, 2000).
Tras la conclusión de que el mercado falló, las ideas de John
Maynard Keynes y su libro “Teoría general del empleo, el
interés y el dinero” (1936) tomaron relevancia en el accionar
político. Keynes creía con fervor que el Estado debía y podía
intervenir en el sistema económico para estabilizar la
actividad económica. Además, la crisis no solo mostró los
problemas del mercado sino también otros. De tal manera
que, los gobiernos impulsaron leyes para subsanar la
seguridad social, el desempleo, la pobreza y otras medidas
que tenían apuntaban a varios objetivos sociales, como
mejorar las condiciones laborales (Stiglitz, 2000).
Esta evidente intervención del Estado en la economía
provocó que la literatura económica generara nuevos
conceptos y teorías, donde el gobierno es un nuevo agente.
Entre estos nace el concepto de hacienda pública, economía
del sector público y los bienes públicos (o sociales).
Musgrave propone además tres funciones del Estado en la
economía para guiar, corregir y complementar al mercado:
asignación, distribución y estabilización. La última serviría
para mantener alto el nivel de empleo, los precios estables y
una tasa de crecimiento constante de la producción. En la
función de distribución, el objetivo sería realizar ajustes en la
concentración de la riqueza y renta hasta donde la sociedad
considere que es justo y equitativo. La asignación de recursos
se preocuparía de proveer los bienes públicos a la población
(Musgrave y Musgrave, 1992).
Otro concepto que se introdujo con la intervención del
Estado, y la justifica, es el de bien público. Este es un tipo
que no excluye su consumo simultáneo entre los individuos
ni tampoco rivalidad (Samuelson, 1954). En el mercado, el
intercambio de mercancías se basa sus títulos de propiedad
(Musgrave, 1968); este es un argumento válido para un carro
o casa, pero no para parques o defensa nacional. Además, un
consumidor puede satisfacer su deseo de algún bien siempre
que esté dispuesto a pagar el precio establecido por el
propietario; este concepto se conoce como principio de
exclusión. Esto permite que el consumidor demande bienes
que le satisfagan y el productor oferte productos para el
primero con costos identificables (Musgrave y Musgrave,
1992).
Las necesidades sociales no se pueden regir con el
mecanismo del mercado porque la satisfacción de un
individuo podría ser diferente a su contribución. Además, los
bienes que satisfacen dichas necesidades tienen varios
consumidores, donde su contribución individual es mínima
respecto al costo total (Musgrave y Musgrave, 1992). Entre
los bienes que contribuyen a la comunidad entera se puede
mencionar la seguridad interna, la provisión de agua potable
o hacer cumplir los contratos. A estos bienes, toda la
sociedad tendrá acceso, unos más y otros menos, pero el
beneficio no depende del pago ni tampoco puede ser
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
voluntario. De tal manera que, el gobierno debe intervenir en
la economía para proveerlos con el financiamiento
obligatorio de la población (Musgrave, 1968).
En este sentido, la presencia de bienes públicos (no rivales y
no excluyentes) y las fallas de mercado han llevado que el
Estado intervenga en la economía (Amarante, 2007). En
términos de desarrollo, este involucramiento se ha dado para
mejorar el bienestar de la población, de lo que no entrega el
mercado por sí solo. En este sentido, el Gobierno tiene un
papel primordial en el desarrollo de un país. Por una lado, la
provisión de educación, salud e infraestructura mejora la
calidad de vida y fomentan el crecimiento, y, por otro lado, la
garantía de los derechos a la vida y la libertad, a través de la
seguridad, la defensa y la justicia, permiten un desarrollo de
la actividad económica que respeta los contratos y la
propiedad privada (CAF, 2012).
Según CAF (2012), los Estados modernos también han
procurado mejorar la distribución del ingreso. Para esto han
generado sistemas impositivos con elementos de
progresividad: tributos directos, tablas diferenciadas por
fuente y nivel de renta, entre otros. Además, han
implementado programas sociales dirigidos a la obtención de
empleo y subsistencia de los pobres. No obstante, las
políticas de desarrollo requieren un manejo sostenible de los
recursos públicos, eficiente en la asignación de recursos y
eficaz en la recaudación (BID, 2014). Esto permite que los
ciudadanos perciban al pago de impuestos como justo porque
financian un gasto que también lo es (Almeida et al., 2012).
Esta intervención del Estado en la sociedad involucra a varias
de sus instituciones. Este proceso complica la evaluación
distributiva (análisis de incidencia) de la política fiscal
(Amarante, 2007). Además, la provisión de un bien o servicio
se vuelve más complejo para el gobierno porque la
cuantificación del beneficio depende de la valoración y
accesibilidad de estos. Esto no sucede en transferencias ya
que su valoración monetaria es claramente identificable
(Demery, 2003).
En la microeconomía tradicional, el precio es un buen
referente del valor de un bien o servicio. No obstante, en los
bienes públicos y privados que provee el Estado esta medida
no es buena guía. Por un lado, no asignar un precio no
implica una falta de valoración. Por otro lado, a pesar de
indicar un precio, el servicio se racionaliza, por diferentes
factores, provocando que el pago no refleje necesariamente el
valor para el consumidor. Sin embargo, se debe asignar una
medida para conocer qué grupos de la población se
benefician de esta provisión y reformular la política para
mejorar su distribución (Demery, 2003).
3. ANÁLISIS DEL BENEFICIO
En esta sección, se presenta la metodología para analizar la
distribución del gasto de los servicios públicos en la
población. Esto no constituye un problema en transferencias
o subsidios monetarios porque se conoce explícitamente el
valor entregado a los individuos. El dilema radica cuando el
Estado provee un servicio, ya que es más difícil obtener el
128
beneficio real que recibe el usuario. La microeconomía
tradicional menciona que el precio es una buena medida del
valor. Sin embargo, los individuos pueden valorar en mayor
(menor) medida el servicio dependiendo de su naturaleza o
por la accesibilidad fuera del mercado (Demery, 2003). Una
alternativa es evaluar el efecto que tiene el acceso a este
servicio en la distribución del bienestar social (Younger,
2003). Se precisa en el acceso ya que el costo del servicio
puede ser el mismo para todos las personas que acceden; es
decir, un gasto per cápita (Davoodi, Tiongson, y
Asawanuchit, 2003).
En la primera parte de la siguiente sección se presentan los
pasos para realizar un análisis de incidencia del beneficio
basado en Davoodi, Tiongson y Asawanuchit (2003),
Demery (2003) y Younger (2003). En la segunda, se exponen
los diferentes enfoques para tratar el efecto marginal del
aumento del gasto público (Marginal BIA, MBIA) siguiendo
a Ajwad y Wodon (2001, 2002) y Lanjouw y Ravallion
(1999).
3.1. Análisis de incidencia del beneficio
El análisis de incidencia del beneficio combina el costo
unitario de proveer el servicio con la información del
beneficiario (Demery, 2003). El costo unitario de la provisión
se obtiene de las instituciones estatales, a través de los
registros del gasto público. Este gasto se puede diferenciar de
varias formas para obtener un dato más cercano al costo del
servicio; no se debe olvidar que el nivel de desagregación del
gasto resulte coherente (Amarante, 2007), puesto que el costo
es imputado a los individuos que utilizan el servicio. Para
asignar el costo unitario a cada beneficiario, el principal
supuesto se basa en no considerar las preferencias
individuales, reconociendo que el valor asignado es el gasto
promedio para entregar el servicio (Younger, 2003).
Para medir el beneficio, se analiza el acceso al servicio que
tiene la persona encuestada (usuario o beneficiario). Además,
se busca un indicador de bienestar; comúnmente se utiliza el
ingreso o consumo de los individuos2. Con estas
consideraciones, se puede realizar: un análisis antes y
después del gasto individual, si se conoce los detalles de los
egresos; una comparación entre distintos grupos (género,
regiones, etc.), o una evaluación distributiva de un gasto
específico respecto a otros. En esta investigación se analiza la
distribución de algunos servicios públicos en la población,
considerando al ingreso como variable proxy del bienestar.
Davoodi et al. (2003) plantea cinco pasos para implementar
el BIA. Estos son:
• Obtener el costo unitario medio para proveer el servicio,
dividiendo el gasto de gobierno en el servicio para el
número de usuarios. Estos usuarios son los últimos
beneficiarios del servicio. Por ejemplo, los profesores no
son los últimos beneficiarios, a pesar que sus sueldos son
pagados por el estado, sino son los estudiantes ya que
estos últimos acceden al servicio de educación. En la
literatura, se utiliza las encuestas de hogares para
identificar los usuarios, aunque se podría recurrir a los
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
129
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
reportes oficiales que son más precisos. Sin embargo,
Demery (2003) indica que los registros administrativos
pueden estar sesgados por reportes viciados o eventos
atípicos.
• Definir el beneficio por el gasto público para proveer el
servicio, indicando la variable de bienestar. Este es un
supuesto muy restrictivo porque se debe asumir que la
variable recoge el bienestar del individuo. Una alternativa
es estimar la curva de demanda. Amarante (2007) resume
esta última metodología.
• Ordenar los usuarios de acuerdo al ingreso y agregar en
grupos de igual número de individuos: quintiles, deciles,
etc. En este paso se debe decidir la unidad de análisis:
individuo u hogares. Se recomienda utilizar individuos
cuando se dirige a la persona (por ejemplo, educación) u
hogares cuando el servicio es a la familia (por ejemplo,
agua potable).
• Estimar la distribución del beneficio multiplicando el
beneficio medio por el número de usuarios en cada grupo
de ingreso. Aquí se asume que el beneficio promedio no
varía entre los grupos de bienestar, resolviendo que el
costo no varía entre los usuarios sino que la cantidad lo
hace.
En la literatura, se presentan los resultados de dos maneras:
tablas o gráficos. Para analizar estos resultados es primordial
mencionar dos conceptos: progresividad, es la mayor
participación de los individuos de ingresos bajos en el
beneficio generado por el gasto gubernamental respecto a los
otros grupos, y, focalización (orientación) pro pobre, es la
concentración del beneficio en el grupo más pobre, donde si
está focalizado es progresivo, pero no viceversa (Davoodi et
al., 2003; Duclos y Araar, 2006)2.
En las tablas, es común agrupar por quintiles y dividir para la
media del beneficio de la población. En esta forma de
presentación, la progresividad se produce cuando el beneficio
disminuye mientras se recorre del primer quintil hasta el
quinto, y, la orientación si la participación del quintil 1 es
mayor que la del 5. En gráficos (ver Figura 1), se utiliza las
curvas de concentración, mostrando que el beneficio es
progresivo si su curva de concentración está por encima de la
curva de Lorenz del ingreso y la focalización pro pobre
cuando la curva de concentración del gasto está arriba de la
recta de 45° o de equidistribución (Davoodi, Tiongson y
Asawanuchit 2003).
• Aunque Davoodi, Tiongson y Asawanuchit (2003) no
menciona este paso, se puede comparar la distribución de
un servicio con otras distribuciones para informar al
hacedores de política (policymakers) sobre la orientación
del gasto público. Se podría analizar con otros tipos de
gasto, con la incidencia de otros años del mismo país o la
distribución entre países.
Los primeros pasos de la metodología se pueden resumir en
la siguiente expresión:
X j = Ej
Ej
S
= S ; j = 1,2, … , n
E
E
(1)
Donde Xj es la incidencia del beneficio del servicio público S
a través de los n grupos de ingreso, Ej es el número de
S
usuario en el grupo de ingreso j, y es el gasto unitario del
E
servicio. Si se evalúa sobre diferentes grupos de individuos o
tipos de gasto, S es el total del gasto específico (educación,
salud, etc.), teniendo un subíndice i (Si ). De esta manera,
para obtener el porcentaje del beneficio respecto al gasto
total, se divide beneficio Xj para este total de gobierno.
Ej Si
xj = ( ) ( ) = ej sj ; j = 1,2, … , n; i = 1, … , m
E S
(2)
Donde ej es el porcentaje de usuarios en el grupo de ingreso j
y sj es la proporción del gasto en ese servicio respecto al
gasto total en ese grupo j. Por construcción, la suma de xj es
igual a uno (Demery 2003; Davoodi, Tiongson y
Asawanuchit 2003).
Figura 1. Curvas de concentración y la incidencia del beneficio del gasto
público, tomado de Davoodi et al. (2003).
La principal ventaja de este método es la fácil
implementación y sencilla presentación de resultados. Según
Amarante (2007), estos análisis de incidencia ayudan a la
reasignación presupuestaria o reformas en la política social,
ya que se han implementado, en su mayoría, para estudiar el
gasto en educación y salud. Además, permite conocer cual
componente del gasto tiene mayor impacto sobre el ingreso
corriente y si beneficia a los más pobres (Amarante, 2007).
Algunas limitaciones de esta herramienta son: suponer el
valor unitario del servicio al repartir el total sobre los
beneficiarios, evaluar el efecto sobre los ingresos corrientes,
analizar sobre los usuarios que se identifican y no discriminar
el impacto de modificar el gasto público en un determinado
2
A pesar que los conceptos son parecidos, de manera formal estos no lo
son ya que el uno acude a términos de cambio en la distribución y el otro a la
concentración. Para ampliar estos conceptos revisar (Duclos y Araar, 2006)
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
130
rubro3. Dividir el gasto total para el número de usuarios es
muy restrictivo, ya que traslada las ineficiencias de ejecución
de manera uniforme a todos los beneficiarios; este costo se
puede modificar según la situación geográfica. Medir
respecto a los ingresos corrientes no admite evaluar sobre
otras dimensiones, efectos indirectos o de largo plazo. Al
identificar el usuario es posible conocer su beneficio, pero
esto no es factible en programas sociales de pequeña escala
que no se reflejen en las encuestas de hogares o en rubros
como seguridad o defensa nacional. Con este método
tampoco se puede concluir el impacto distributivo en la
expansión o reducción del gasto porque no se conoce el
comportamiento de los agentes económicos sin el gasto
generado en ese período; además, es muy restrictivo presumir
que los precios relativos y los flujos corrientes no se
modifican con la intervención del gobierno (Amarante, 2007;
Demery, 2003; Younger, 2003).
Bajo estas críticas, este método es una primera aproximación
en el análisis distributivo del gasto público. Para obtener
mayores conclusiones y recomendaciones es importante
realizar otro tipo de estudios que sustenten los resultados
preliminares y se puedan incluir comportamientos. Estos
estudios complementarios pueden ser de orden cuantitativo o
cualitativo, los que posibiliten evidenciar el impacto real del
gasto público. De manera alternativa, se puede utilizar la
percepción de los usuarios para mejorar la calidad del
servicio (Amarante, 2007).
3.2. Análisis marginal de incidencia del beneficio
Debido a las críticas al método BIA, se expandieron algunas
metodologías que complementen la investigación del
beneficio del gasto público; Younger (2003) resume las
alternativas para medir este efecto marginal. Ajwad y Wodon
(2001, 2002) y Lanjouw y Ravallion (1999) proponen
instrumentos para medir el efecto marginal del incrementar el
acceso, dado por mayor gasto. Los autores exponen estas
alternativas explicando que la expansión del servicio no
necesariamente va beneficiar a los que ya son usuarios, sino a
nuevos individuos, donde no se conoce su comportamiento y
su ubicación en la distribución del bienestar.
En 1999, Lanjouw y Ravallion plantean un modelo de
economía política donde el objetivo del gobierno es reducir la
pobreza con la restricción de no afectar el bienestar de los
que no son pobres. El impacto distributivo de modificar la
política depende de la influencia que tengas los grupos socioeconómicos en el proceso. De esta manera, los autores
justifican que el análisis tradicional de incidencia del
beneficio no es útil para responder a la expansión del
servicio. Además, indican que si los pobres logran
beneficiarse del servicio en su creación, este será ocupado
por los no pobres en su expansión, y viceversa (Figura 2).
3
Esta última crítica se podría resolver, por ejemplo, si se quiere entender
la incidencia de proveer seguro médico a todos los que no lo tienen; si se les
puede identificar en la encuesta, se puede estimar la incidencia aunque no
exista el servicio al momento de la encuesta.
Figura 2. Captura del servicio entre pobres y no pobres de acuerdo al tiempo
de acceso, tomado de Lanjouw y Ravallion (1999).
Bajo esta idea, utilizan la encuesta de consumo e ingreso de
1993-94 realizada en la India, agregando los indicadores a
nivel de 62 regiones y quintiles, donde cada región pertenece
a un solo estado. Se realiza regresiones por quintiles donde la
variable dependiente es la participación de la región de cada
quintil respecto la participación del estado. Lanjouw y
Ravallion (1999) plantean que la estimación por mínimos
cuadrados ordinarios (MCO) está sesgada porque la variable
del estado es endógena, debido que contiene la tasa de la
región. Para solucionar este inconveniente, plantean utilizar
la participación en el servicio sin la región observada como
variable instrumental. Los resultados muestran que la
expansión del sistema de educación primaria sería más
beneficiosa para los pobres.
Ajwad y Wodon (2001, 2002) presentan una metodología
alternativa a Lanjouw y Ravallion (1999) en la construcción
de los quintiles, ya que proponen que estos grupos deben ser
generados por cada zona geográfica y no a nivel nacional.
Los autores exponen esta diferencia ya que es más importante
el efecto en la región que a nivel nacional debido a la
descentralización de estos servicios. Además, plantean
también utilizar la participación del estado sin la región como
variable explicativa de manera directa y no como
instrumental. De manera empírica, estos autores utilizan las
encuestas de hogares de 6 países de América Latina (Brasil,
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
131
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
Honduras, México y Venezuela del 1986, y, Chile y
Guatemala del 1989). Sus resultados muestran que los pobres
tienen menor acceso a los servicio de electricidad y agua
potable que los ricos, pero que en la expansión los primeros
se beneficiarán más.
Aunque Lanjouw y Ravallion (1999) no definen un ecuación
para la estimación de los beneficios marginales, Younger
(2003) propone la Ecuación (3) y la presente investigación la
adopta para el caso ecuatoriano. Esta expresión expone que el
beneficio de un hogar i del quintil q depende de la
participación que tiene la provincia k, una constante αq y un
termino de error uq . El coeficiente β indica el beneficio
marginal del quintil q cuando aumenta el acceso a un servicio
determinado en la provincia k.
pi,k,q = αq + βq pk + uq
(3)
Como antes se mencionó, estimar la expresión anterior por
medio de MCO provoca que los coeficientes estén sesgados.
Esto debido a que la participación de la provincia (pk )
incluye el acceso que tiene un hogar del quintil q, generando
endogeniedad en el modelo. Lanjouw y Ravallion (1999)
propone calcular la participación de la provincia sin el quintil
en análisis y ese porcentaje utilizarlo como variable
instrumental para pk . Otra solución es la de Ajwad y Wodon
(2001), que recomienda usar la variable instrumental
directamente en (3) En la presente investigación se calcula
los coeficientes con la última sugerencia; de tal manera, la
variable independiente es la participación de la provincia sin
considerar el acceso del quintil q, en vez de la participación
total.
Ajwad y Wodon (2001) y Lanjouw y Ravallion (1999)
proponen una consideración adicional en la estimación: la
normalización de los coeficientes, es decir, el promedio de
los βq es igual a uno. Esta condición facilita el análisis, ya
que el beneficio marginal se analizará en función de la media:
si el aumento del acceso es mayor a uno en un quintil
determinado implica que esa parte de la distribución tiene un
mayor rendimiento que el promedio. Además, se imponen
dos restricciones: la suma de los beneficios marginales es
igual al número de quintiles (5) y los coeficientes deben ser
positivos4. Debido a que las restricciones no son lineales, la
estimación se realizó con métodos de esta naturaleza.
Younger (2003) recoge las diferentes formas de datos y de
estimación para esta metodología. El autor expone que estas
estimaciones se pueden hacer con datos con corte transversal
en un año (cross-section data), varios años (pooled data) o
panel de datos (panel data). Utilizar las diferentes bases de
datos dependería de la disposición de las encuestas y si se
desea controlar los efectos en el tiempo (fijos o aleatorios).
Younger (2003) también expone que se puede calcular la
diferencia de la participación en el tiempo, tomando dos
4 Esta condición se impone porque en la estimación inicial se utilizó la
programación del comando imbi de Stata, pero los coeficientes tenían
valores negativos, compensándose con valores positivos para que promedio
sea uno y la suma cinco. Si se desea conocer los detalles de esta
programación, contactarse con el autor.
momentos diferentes y utilizar la regresión antes expuesta.
Una última alternativa es estimar la probabilidad de
participación en cada año que sea posible.
En resumen, el MBIA ofrece un enfoque complementario
para determinar la distribución de los beneficios marginales
en la sociedad debido al gasto público adicional. El análisis
de la incidencia marginal de beneficios es una metodología
que permite evaluar el impacto distributivo en el bienestar de
una expansión del gasto público, en particular en los
programas sociales. Cuando los métodos tradicionales miden
sólo el beneficio promedio del gasto público, MBIA permite
la desagregación de los beneficios marginales por las
características socioeconómicas (generalmente grupos de
ingresos); esto es primordial cuando diferentes grupos
socioeconómicos capturan los beneficios de un programa
público en diferentes momentos. En estas circunstancias,
ofrece una descripción más precisa de qué grupos son
propensos a beneficiarse más de un aumento marginal en el
gasto, o sufren más de una disminución marginal en el
mismo. Por lo tanto, este análisis puede proporcionar
información valiosa sobre si el gasto adicional regresivo,
progresivo o propobre.
4. RESULTADOS
Para conocer la distribución de los servicios públicos en la
población de Ecuador, se utilizó la sección 10, Calidad de los
servicios públicos, de la Encuesta Nacional de Empleo,
Desempleo y Subempleo (ENEMDU) realizada en diciembre
de 2013. Esta encuesta tiene representatividad nacional a
nivel de provincia, excepto la región amazónica. En la
sección mencionada se pregunta a dos miembros del hogar
(aleatoriamente) sobre el funcionamiento general, los
problemas, las instituciones y el acceso de los servicios
públicos. En este estudio solo se considera las preguntas
sobre la utilización de los siguientes servicios públicos:
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
6.1 ¿Ha utilizado al SRI?
6.2 ¿Ha utilizado educación pública básica - secundaria?
6.3 ¿Ha utilizado educación pública superior?
6.4 ¿Ha utilizado salud pública?
6.5 ¿Ha utilizado inspectorías del trabajo?
6.6 ¿Ha utilizado a la policía?
6.7 ¿Ha utilizado a la matriculación vehicular?
6.8 ¿Ha utilizado al registro civil?
6.9 ¿Ha utilizado al IESS (salud) ?
6.10 ¿Ha utilizado al IESS (pensiones jubilares, ..) ?
6.11 ¿Ha utilizado transporte público?
6.12 ¿Ha utilizado créditos públicos?
6.13 ¿Ha utilizado carreteras públicas?
6.14 ¿Ha utilizado o recibido el BDH, vivienda, etc.?
6.15 ¿Ha utilizado los correos del Ecuador?
Se consideró como unidad mínima de análisis a la familia
(jefe de hogar) porque la mayoría de servicios la involucran.
Podrían existir excepciones como inspectorías de trabajo o
educación superior que solo benefician a unos miembros del
grupo familiar, pero al final afectan al hogar. Además, se
creó una pregunta general sobre el acceso a los servicios;
para esta, si la respuesta del encuestado respecto a la
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
utilización de los servicios es afirmativa, se asume que el
hogar lo utilizó, es decir, si un miembro usó alguno de estos
servicios, entonces toda la familia tuvo acceso. Se realizó
esto ya que el sorteo para encuestar puede llevar, por
ejemplo, a que el niño niegue utilizar las prestaciones del
IESS, pero la madre responda de manera positiva, o viceversa
en educación primaria. Para el BIA se compara la
concentración del ingreso con la distribución del servicio. De
manera inicial, se puede analizar la distribución quintil por
quintil para explicar los resultados. Una manera alternativa es
utilizar el índice de Gini para conocer el nivel de
concentración y el índice de Kakwani para la progresividad5.
Este último se calcula como la diferencia entre el Gini del
servicio y del ingreso per cápita; si el valor es negativo, el
servicio tienen progresividad y regresividad si es positivo.
Como se mencionó, el análisis de incidencia del beneficio se
puede presentar en tablas o figuras. En esta sección se
presenta la Tabla 1, la cual muestra la concentración de los
diferentes servicios encuestados. En este documento se
agrupo a la población en quintiles del ingreso per cápita de
los hogares. Además, se incluye los límites inferiores y
superior del ingreso en los quintiles para que las conclusiones
sean claras respecto a la población que representan los
encuestados. En el Apéndice A se pueden observar las figuras
comprendidas desde Figura A.1 hasta Figura A.16.
La Tabla 1 muestra que el índice de concentración de los
servicios públicos, en general, es cercana a cero (Gini:
0,0039); esto muestra que la población de diferentes estratos
de ingreso tienen acceso a los servicios que oferta el Estado.
Los porcentajes de participación de cada quintil están cerca
del 20%. Si se compara el Gini de ingreso (0,4904) con el
índice de concentración de haber utilizado algún servicio, se
puede observar que el último es menos concentrado que el
ingreso; es decir, progresivo (Kakwani: -0,4865). Además, la
razón entre el quintil 5 y 1 es 13 veces en el ingreso y 1 para
el servicio, reafirmando la menor concentración y
progresividad del servicio.
Entre los 15 servicios encuestados se puede observar que
existen servicios con índices de Gini negativos. Esto muestra
que el acceso al Bono de Desarrollo Humana (BDH) y otras
transferencias del gobierno cumplen su propósito porque son
propobres por el signo en el Gini. Además, tienen un
Kakwani de -0,2574. El servicio de salud pública y el
transporte público también se concentran en los pobres, ya
que sus índices de concentración son -0,0162 y -0,0002, a
pesar de tener porcentajes de participación similares entre los
quintiles (Tabla 1).
Existen otros servicios con índices de concentración cercanos
a cero, que muestran una distribución equitativa. La
educación primaria–secundaria, las carreteras públicas, el
registro civil y la policía nacional tienen esta característica.
Respecto al ingreso per cápita se observa una clara
progresividad de estos servicios con índices de Kakwani de 0,4789, -0,4756, -0,4811 y -0,4370; sin embargo, no tienen
5
Es común encontrar el índice de Kakwani en la literatura de
concentración de impuestos, sin embargo, este se puede utilizar para el gasto
bajo el mismo concepto (ver Castano et al. 2002).
132
una orientación a los pobres porque el Gini de los servicios es
aún positivo (Tabla 1).
Los servicios de menor progresividad que los antes
mencionados son: el acceso al SRI, al IESS, a la
matriculación vehicular, al correo, a las inspectorías del
trabajo y a la educación superior. Esto se debe a la naturaleza
misma de estos servicios. En el caso de los dos primeros son
obligaciones de la población que ejerce una actividad
económica o posee automóvil. Mientras que, los servicios de
correspondencia, derechos laborales y educación superior
estarían relacionados con el supuesto de a mayor ingreso,
mayor educación y más conocimiento de los derechos
legales.
En suma, la Tabla 1 muestra la distribución de los servicios
públicos en la población. Esta distribución se comparó con la
concentración del ingreso per cápita, probando que todos los
servicios encuestados son progresivos y algunos propobres
(transferencias estatales, salud y transporte). Sin embargo,
como se mencionó en metodología, el BIA no permite
conocer el efecto de incrementar el acceso, ya que expone la
situación en el tiempo de análisis. Por lo tanto, se utiliza
MBIA para conocer dicho efecto de los servicios
encuestados. Para una mejor comprensión de los resultados
marginales, se normalizó los coeficientes de la Ecuación (3);
es decir, el promedio es igual a uno y su sumatoria es igual a
cinco. Al igual que el BIA, los resultados marginales se
presentan en la tabla 2 divididos en quintiles para los
servicios encuestados. Al conocer si el hogar ha utilizado
algún servicio público, la ampliación del acceso de todos
estos beneficiaría más a los quintiles intermedios (2-4) que al
promedio. Se podría decir que el beneficio se daría a la clase
media de la población. A pesar que el grupo de ingresos 3
tiene un coeficiente menor a uno (0,94), el resultado en
conjunto muestra que es parte del mayor beneficio (Tabla 2).
Al aumentar el acceso, el único servicio que tendría un efecto
pro pobre sería las transferencias gubernamentales, como el
BDH. Se observa que el coeficiente del primer quintil es 1,45
y va disminuyendo a 0,77 hasta el último quintil. Esto podría
deberse a su naturaleza porque está dirigido a los estratos con
más bajo ingreso. Por el contrario, los servicios del SRI, de
las inspectorías de trabajo, de la policía, de la matriculación
vehicular, los créditos públicos y los correos muestran un
beneficio a favor de los últimos quintiles más que el
promedio cuando se incrementa el acceso (Tabla 2).
La educación pública básica-secundaria y el transporte
público son los servicios que tienen un beneficio sobre la
clase media encuestada. Estos servicios utilizan la mayoría de
la población, por lo que su aumento beneficiaría a la clase
media (quintiles medios) ya que el 83 % de los ecuatorianos,
que viven en el área urbana, pertenecen a esta clase (INEC
2011). Los servicios que beneficiarían a los quintiles
extremos (uno y quinto) son la educación superior, la salud
pública y del IESS, si se incrementa su acceso. Una
explicación, para que estos estratos tengan un mayor acceso
que la media, sería la política de gratuidad del gobierno en la
educación, de la salud pública y de la atención del IESS para
todos los dependientes del hogar. Además, los hogares del
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
133
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
quintil 5 podrían sustituir su gasto en educación, salud y
seguro privados para utilizar lo que provee el Estado. El
acceso a los servicios depende de la naturaleza. Algunos
fueron específicamente dirigidos a estratos más pobres para
que su bienestar aumente, por ejemplo, el bono de desarrollo
humano o el programa de vivienda social. Otros servicios
están relacionados con los deberes fiscales de la población
como el pago de impuestos. Finalmente, se debe considerar
que hay servicios de uso masivo que su aumento
beneficiarían más a la clase media que a otros.
Tabla 1. Análisis de la incidencia del beneficio de los servicios públicos.
Pregunta o variables
Quintil 1
Quintil 2
Quintil 3
Quintil 4
Quintil 5
Gini
Kakwani
Ingreso mínimo registrado (dólares)
1,00
75,56
123,60
190,17
330,33
Ingreso máximo registrado (dólares)
75,50
123,33
190,00
330,00
10.470,00
Ingreso
4,21
8,29
12,71
20,73
54,06
0,4904
6.1 Ha utilizado al SRI
7,42
11,43
15,92
23,81
41,41
0,3422
-0,1482
6.2 Ha utilizado educación pública básica - secundaria
19,66
20,32
19,95
20,02
20,05
0,0115
-0,4789
6.3 Ha utilizado educación pública superior
8,74
12,18
16,56
24,91
37,61
0,2987
-0,1917
6.4 Ha utilizado salud pública
20,59
20,81
20,19
20,09
18,32
-0,0162
-0,5066
6.5 Ha utilizado inspectorías del trabajo
9,16
11,93
16,02
22,42
40,47
0,2987
-0,1916
6.6 Ha utilizado a la policía
16,89
18,07
19,31
21,74
24,00
0,0534
-0,4370
6.7 Ha utilizado a la matriculación vehicular
7,89
11,20
15,36
22,92
42,63
0,3345
-0,1559
6.8 Ha utilizado al registro civil
19,57
19,82
19,62
20,08
20,91
0,0093
-0,4811
6.9 Ha utilizado al IESS (salud)
8,77
13,44
18,26
24,82
34,71
0,2665
-0,2239
6.10 Ha utilizado al IESS (pensiones jubilares,..)
7,75
11,93
16,79
23,94
39,58
0,3113
-0,1791
6.11 Ha utilizado transporte público
20,07
20,20
20,02
20,25
19,45
-0,0002
-0,4906
6.12 Ha utilizado créditos públicos
14,29
15,01
17,53
21,47
31,70
0,1810
-0,3094
6.13 Ha utilizado carreteras públicas
19,48
19,64
19,67
20,22
20,99
0,0148
-0,4756
6.14 Ha utilizado o recibido el BDH, vivienda, etc.
35,32
25,44
19,02
12,71
7,50
-0,2574
-0,7478
6.15 Ha utilizado los correos del Ecuador
8,05
10,94
15,15
22,64
43,21
0,3152
-0,1752
Ha utilizado algún servicio público
19,85
20,04
19,73
20,14
20,24
0,0039
-0,4865
Tabla 2. Análisis marginal de la incidencia del beneficio de los servicios públicos.
Pregunta o variable
Quintil 1
Quintil 2
Quintil 3
Quintil 4
Quintil 5
Ingreso mínimo registrado (dólares)
1,00
75,56
123,60
190,17
330,33
Ingreso máximo registrado (dólares)
75,50
123,33
190,00
330,00
10470,00
6.1 Ha utilizado al SRI
0,98
0,91
0,81
0,81
1,49
6.2 Ha utilizado educación pública básica - secundaria
0,79
1,04
1,11
1,14
0,91
6.3 Ha utilizado educación pública superior
1,13
0,76
0,77
0,83
1,52
6.4 Ha utilizado salud pública
1,21
0,68
0,92
0,97
1,22
6.5 Ha utilizado inspectorías del trabajo
0,91
0,81
0,87
0,98
1,43
6.6 Ha utilizado a la policía
0,95
0,98
0,97
1,02
1,08
6.7 Ha utilizado a la matriculación vehicular
0,94
0,81
0,82
0,79
1,63
6.8 Ha utilizado al registro civil
0,86
1,10
0,98
1,09
0,98
6.9 Ha utilizado al IESS (salud)
1,09
0,84
0,88
0,95
1,25
6.10 Ha utilizado al IESS (pensiones jubilares,..)
1,00
0,82
0,87
0,84
1,48
6.11 Ha utilizado transporte público
0,95
1,16
0,88
1,23
0,78
6.12 Ha utilizado créditos públicos
0,97
0,97
0,93
1,09
1,04
6.13 Ha utilizado carreteras públicas
0,98
1,11
0,89
1,05
0,97
6.14 Ha utilizado o recibido el BDH, vivienda, etc.
1,45
1,00
0,95
0,83
0,77
6.15 Ha utilizado los correos del Ecuador
0,89
0,76
0,74
0,78
1,83
Ha utilizado algún servicio público
0,93
1,21
0,94
1,02
0,90
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
134
5. CONCLUSIONES Y RECOMENDACIONES
REFERENCIAS
Este estudio presenta un análisis distributivo del gasto y los
servicios públicos para Ecuador, en el año 2013. Se utilizó la
metodología BIA y su extensión marginal para identificar
cómo están distribuidos los servicios públicos respecto al
ingreso per cápita del hogar. Para el efecto, se utilizaron los
datos de la ENEMDU.
Ajwad, Mohamed Ihsan, y Quentin Wodon. (2001). Marginal Benefit
Incidence Analysis Using a Single Cross-Section of Data.
Entre los resultados más relevantes, se encuentra que la
distribución general de los servicios encuestados, es
equitativa; es decir, cada quintil de la población utiliza el
servicio en una proporción similar a los otros. Además, todos
los servicios son progresivos con respecto al ingreso per
cápita del hogar.
La naturaleza del servicio incide en la distribución. Por
ejemplo, los servicios de educación, salud, transporte,
registro civil y carreteras tienen un acceso similar entre todos
los grupos de ingreso. Mientras que los servicios que están
vinculados con deberes, como las obligaciones tributarias o
de seguridad social, muestran una mayor utilización por parte
de los quintiles más altos. Las transferencias enfocadas a
erradicar la pobreza, en cambio, tienen una naturaleza
propobre, evidenciando la eficiencia de los programas.
En este sentido, la ampliación general de los servicios
considerados en la Encuesta beneficiaría más a la clase media
que al resto de la población. El único programa que tendría
un beneficio propobre sería las transferencias monetarias
condicionadas (BDH, crédito social de vivienda, etc.).
Mientras que, los servicios del SRI, IESS, Policía e
inspectorías del trabajo, entre otros, generarían mayor
utilización por parte de los quintiles altos de población. La
educación y el transporte muestran un mayor beneficio para
los grupos intermedios respecto al promedio. Además, la
salud pública, la educación superior, y otras, podrían mejorar
el bienestar de los extremos de la población.
El incremento del gasto público en la dotación de un servicio,
mediante el mayor acceso, generará diferentes resultados en
el bienestar de los ciudadanos. Además, se debe identificar
qué servicio beneficiará más a toda población. De manera
general, se podría recomendar dirigir los recursos fiscales a
los servicios más progresivos, por ejemplo, disminuir los
fondos para correos o matriculación vehicular para expandir
el beneficio en salud pública o en las transferencias
monetarias. Antes de cualquier modificación se debe
considerar la naturaleza de este y el objetivo de la política
pública.
Ajwad, Mohamed Ihsan, y Quentin Wodon. (2002). “Who Benefits from
Increased Access to Public Services at the Local Level? A Marginal Benefit
Incidence Analysis for Education and Basic Infrastructure.” World Bank
Economists’ Forum 2: 155–75.
Almeida, María Dolores, Carlos Marx Carrasco, Nicolás Oliva, and Paúl A.
Carrillo. (2012). “Ingresos Y Gasto Público En Democracia: De La Rigidez
Fiscal Al Pago de La Deuda Social.” En Una Nueva Política Fiscal Para El
Buen Vivir. La Equidad Como Soporte Del Pacto Fiscal, editado por SRI,
111–56. Ediciones Abya-Yala.
Amarante, Verónica. (2007). El Impaqcto Distributivo Del Gasto Público
Social: Aspectos Metodológicos Para Su Medición Y Antecedentes Para
Uruguay. DT 08/07. Documentos de Trabajo.
BID. (2014). “La Realidad Fiscal: Una Introducción a Los Problemas Y
Políticas Fiscales En América Latina.” Banco Interamericano de Desarrollo
(BID).
CAF (ed.) (2012). Finanzas Públicas Para El Desarrollo : Fortaleciendo La
Conexión Entre Ingresos Y Gastos. Bogotá, Colombia: Corporación Andina
de
Fomento
(CAF).
http://publicaciones.caf.com/media/17942/red_book_2012_13-junio.pdf.
Castano, Ramon A, Jose J Arbelaez, Ursula B Giedion, y Luis G Morales.
(2002). “Equitable Financing, out-of-Pocket Payments and the Role of
Health Care Reform in Colombia” Health Policy and Planning 17 (suppl 1):
5–11. doi:10.1093/heapol/17.suppl_1.5.
Davoodi, Hamid R., Erwin R. Tiongson, and Sawitree S. Asawanuchit.
(2003). How Useful Are Benefit Incidence Analyses of Public Education and
Health Spending? WP/03/227. IMF Working Papers. Vol. 03.
Demery, Lionel. (2003). “Analyzing the Incidence of Public Spending.” En
The Impact of Economic Policies on Poverty and Income Distribution,
editado por Francois Bourguignon and Luiz Pereira da Silva, 41–68. The
World Bank and Oxford University Press.
Duclos, Jean-Yves, y Abdelkrim Araar. (2006). Poverty and Equity:
Measurement, Policy and Estimation with DAD. Edited by Jacques Silber.
Canada: Springer.
INEC. 2011. Encuesta de Estratificación Del Nivel Socioeconómico NSE
2011. Presentación Agregada. http://www.ecuadorencifras.gob.ec/encuestade-estratificacion-del-nivel-socioeconomico/.
Lanjouw, Peter, and Martin Ravallion. 1999. “Benefit Incidence, Public
Spending Reforms, and the Timing of Program Capture.” The World Bank
Economic Review 13 (2): 257–73. http://www.jstor.org/stable/3990098 .
Musgrave, Richard. (1968). Teoría de La Hacienda Pública. Edited by Jose
María Lozano Irueste. España: McGraw-Hill.
Musgrave, Richard y Peggy Musgrave. (1992). Hacienda Pública: Teoría Y
Práctica. Edited by José María Lozano Irueste. 5th ed. España: McGrawHill.
Samuelson, Paul A. (1954). “The Pure Theory of Public Expenditure.” The
Review of Economics and Statistics 36 (4): 387–89.
AGRADECIMIENTO
El autor agradece los comentarios de Gabriela Fernández,
Stephanie Espín, Andrew Blackman, Isabel García, Ana
Rivadeneira y Tania Guerra. Un especial agradecimiento a
Stephen Younger, profesor de Ithaca College, por sus
aclaraciones y comentarios en la metodología, y a Jean-Yves
Duclos y Abdelkrim Araar por la ayuda en el manejo del
módulo Benefit analysis del paquete DASP en Stata.
Sen, Amartya. (1992). Inequality Reexamined. New York, Cambridge:
Harvard University Press.
Stiglitz, Joseph. (2000). Economia Del Sector Publico. Edited by Antoni
Bosch.
Younger, Stephen. (2003). “Benefits on the Margin: Observations on
Marginal Benefit Incidence.” The World Bank Economic Review 17 (1): 89–
106. doi:10.1093/wber/lhg009.
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
135
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
APÉNDICE A
CURVAS DE CONCENTRACIÓN DE LOS SERVICIO
PÚBLICOS
Figura A.4. Curvas de concentración de haber utilizado la educación pública
superior.
Figura A.1. Curvas de concentración de haber utilizado algún servicio
público.
Figura A.5. Curvas de concentración de haber utilizado la salud pública.
Figura A.2. Curvas de concentración de haber utilizado los servicios del
SRI.
Figura A.6. Curvas de concentración de haber utilizado las inspectorías de
trabajo.
Figura A.3. Curvas de concentración de haber utilizado la educación pública
básica-secundaria.
Figura A.7. Curvas de concentración de haber utilizado el servicio de la
Policía.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Análisis del beneficio marginal del gasto público y sus servicios
_________________________________________________________________________________________________________________________
Figura A.8. Curvas de concentración de haber utilizado el servicio de
matriculación vehicular.
Figura A.12. Curvas de concentración de haber utilizado el transporte
público.
Figura A.9. Curvas de concentración de haber utilizado el registro civil.
Figura A.13. Curvas de concentración de haber utilizado los créditos
públicos.
Figura A.10. Curvas de concentración de haber utilizado el servicio de salud
del IESS.
Figura A.14. Curvas de concentración de haber utilizado las carreteras
públicas.
Figura A.11. Curvas de concentración de haber utilizado los prestaciones
previsionales del IESS.
136
Figura A.15. Curvas de concentración de haber utilizado o recibido alguna
transferencia (BDH, vivienda, etc).
Revista Politécnica – Marzo 2016, Vol. 37, No. 2
137
Carrillo Maldonado Paúl A.
_______________________________________________________________________________________________________________________________
Figura A.16. Curvas de concentración de haber utilizado los correos del
Ecuador.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital
_________________________________________________________________________________________________________________________
138
El Concepto del Riesgo de Valor y su Cuantificación Mediante la
Estructura Estocástica de la Formación de Capital
Galvis Andrés1, 2; Galindo Edwin3

1Universidad de las Américas, Escuela de Ciencias Físicas y Matemáticas, Quito, Ecuador
2Universidad de las Fuerzas Armadas-ESPE, Departamento de Ciencias Exactas, Quito-Ecuador.
3Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador.
Resumen: La valoración de activos es uno de los pilares fundamentales de la economía financiera, permitiéndoles a
los agentes del mercado elaborar estimaciones insesgadas del precio y estructurar carteras de valores que maximizan
la rentabilidad esperada del inversor. Debido a la ausencia de mercado, se propone un modelo basado en consumo
intertemporal para estimar el valor corporativo, la base conceptual del modelo se enfoca en la aplicación de las series
de tiempo estacionarias para estimar el flujo de caja libre y de los axiomas de Von Neumann-Morgenstern para
cuantificar el factor de descuento estocástico. Por último, se define el Riesgo de Valor-RiskV como una medida de
riesgo corporativo la cual mide la potencial destrucción de valor a consecuencia de la variabilidad de su estructura
operacional y financiera, y de las posiciones estratégicas de la compañía.
Palabras clave: Valoración, Riesgo, Función de Utilidad, Series de Tiempo, Opciones Reales, Flujo de Caja Libre.
The Risk of Value and its Quantification by Capital Stochastic
Structure
Abstract: The asset pricing is one of the fundamental pillars of the financial economics, allowing market players
develop unbiased estimates of the price and will structure portfolios that maximize expected return of the investor. A
consumption-based model is proposed to estimate corporate value when the company has a fixed component and a
soft component due to the strategic opportunities available. The conceptual basis of the model focuses on the
application of stationary time series to estimate the free cash flow and of the Von Neumann-Morgenstern axioms for
quantifying the stochastic discount factor of both components. Finally, the RiskV value is defined as a measure of
corporate risk which measures the potential destruction on corporate value as a result of the variability of its
operational and financial structure, and strategic positions in the company.
Keywords: Asset Pricing, Risk, Utility Functions, Time Series, Real Options, Free Cash Flow.
1
1. INTRODUCCIÓN
Un gran número de investigadores, docentes y ejecutivos
dedicados a la valoración de empresas y al estudio profundo
de las fuentes de valor, han elaborado una densa bibliografía
de teorías, artículos, opiniones y métodos que facilitan la
valoración de proyectos y de empresas no financieras en
determinados contextos políticos, económicos y sociales. La
búsqueda de mejores modelos y métodos de valoración han
ocasionado que el estado del arte se encuentre sumergido en
un problema de superficialidad, discrecionalidad, subjetividad
y arbitrariedad de la valoración. La incorporación de las
Normas Internacionales de Información Financiera - NIIF y el
cambio del paradigma de la ecuación patrimonial, han influido
en la forma de estudiar la información financiera, dejando de
lado el estudio de las transacciones estáticas para dar paso a un
estudio de movimiento continuo y caótico.
Lo más notable en las investigaciones llevadas a cabo en la
última década, es la marcada discrepancia entre los mismos
profesionales. No existe un consenso en la definición de valor,
ocasionando la formulación de hipótesis o supuestos, que
luego tienen que encajar bruscamente en modelos inadecuados
para el medio en donde se desempeña el proyecto y/o empresa,
la transición de los métodos contables, pasando por el
devaluado método de flujo de caja descontado, para aterrizar
en el llamativo método de opciones reales. Han perjudicado
notablemente la credibilidad y la precisión de las valoraciones
de activos en los mercados financieros internacionales.
La formulación de modelos de riesgo privados y no bancarios,
dará un impulso al análisis financiero moderno y permitirán
una mejor estimación de parámetros de la compañía,
cambiando la política de alcance de objetivos hacia una
política en función de la capacidad productiva, involucrando
factores de riesgo internos, externos, de liquidez, rentabilidad,
[email protected].
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
139
Galvis Andrés1, 2; Galindo Edwin3
_______________________________________________________________________________________________________________________________
endeudamiento y por supuesto de flexibilidad. La formulación
de un modelo de riesgo no necesariamente gaussiano,
autoorganizado, bajo hipótesis de mercado semifuertes,
utilizando la microeconomía como plataforma conceptual del
estudio empresarial y evaluando los diferentes escenarios
inciertos mediante simulación, permitirán que los métodos de
valoración tengan convergencia y brinden la información
pertinente y a tiempo continuo, para que los inversores tomen
las decisiones de inversión y financiación óptimas que tengan
como fin generar valor y riqueza a los propietarios.
La modificación del concepto de valor como una función del
valor operacional y el valor de flexibilidad de un proyecto de
inversión y financiación en tiempo discreto o continuo,
además de obtener una medida de riesgo mediante el estudio
de la distribución de probabilidad del valor de la compañía con
el correspondiente estudio de los componentes del mismo;
permitirá identificar, cuantificar y controlar los factores de
riesgos, que con la estimación de su dinámica y el análisis de
sensibilidad dará como resultado los intervalos de confianza
de valor justo para la valoración de empresas.
2. MARCO TEÓRICO/METODOLOGÍA
2.1. La inversión y la financiación corporativa
La empresa puede definirse, desde un punto de vista
económico, como un conjunto de factores productivos
coordinados, cuya función es producir y cuya finalidad viene
determinada por el sistema de organización social y económica
en que se halle inmersa. El objeto formal de la Economía de la
Empresa es formular leyes de equilibrio, pero no en sentido
general y abstracto, sino en tanto es susceptible tal equilibrio
de aplicaciones concretas en el orden microeconómico de la
empresa (Suarez, 2003). Considerando que la empresa es una
sucesión en el tiempo de proyectos de inversión y financiación,
su longevidad está condicionada cuando la rentabilidad de las
inversiones realizadas supere el costo de capital utilizado para
su financiación. Sin embargo, el alcance de aquel objetivo
requiere direccionar todas las áreas de la compañía de tal
manera que se identifiquen las metas y restricciones, la
naturaleza e importancia de los beneficios, comprender los
incentivos y los mercados, considerar el valor del dinero en el
tiempo y por último, aplicar el análisis marginal (Baye, 2006).
Decidir qué proyectos de inversión debe realizar, considerando
la limitación de los recursos y el costo de utilizarlos están
determinados por los conceptos del Capital Budgeting o
Presupuesto de Capital, Estructura de Capital y Capital de
Trabajo (Ross et al., 2010). Sin embargo, la literatura en
finanzas corporativas resta importancia a la relación entre los
anteriores conceptos y en algunos casos se consideran
independientes, en el presente trabajo se afirma que el
presupuesto de capital es el eje central en la administración
financiera puesto que permite evaluar la gestión gerencial y
determinar el valor intrínseco de las compañías. La siguiente
definición y proposición fue planteada en (Greenwood, 2010).
Definición 1. El flujo de Caja libre, FCF, es la cantidad de
fondos disponibles en efectivo para todos los inversionistas de
una empresa después de pagar impuestos y cumplir con las
necesidades de inversión, ver Ecuación (1).
𝑔
𝐹𝐶𝐹𝑡 = 𝐶𝐹𝑡𝑠𝑎𝑙𝑒𝑠 − 𝐶𝐹𝑡 − 𝑂𝑝𝑒𝑥𝑡 − 𝐶𝑎𝑝𝑥𝑡 − 𝐶𝐹𝑡𝑡𝑎𝑥𝑒𝑠
(1)
𝑔
Donde 𝐶𝐹𝑡𝑠𝑎𝑙𝑒𝑠 , 𝐶𝐹𝑡 , 𝑂𝑝𝑒𝑥𝑡 , 𝐶𝑎𝑝𝑥𝑡 y 𝐶𝐹𝑡𝑡𝑎𝑥𝑒𝑠 es el
movimiento de efectivo por las ventas, por costo de ventas, por
el gasto de operación, por el movimiento de capital, y por el
gasto en impuestos, respectivamente. Y cumple con:
Proposición 1. Una empresa privada con fines de lucro e
independiente de su estructura financiera posee un Flujo de
Caja Libre tal que, ver Ecuación (2):
𝐹𝐶𝐹𝑡 = (1 − 𝜏) × 𝐸𝐵𝐼𝑇𝑡 + 𝐷𝑒𝑝𝑡 − 𝐶𝑎𝑝𝑥𝑡 − ∆𝑁𝑊𝐶𝑡
(2)
Dónde 𝜏, tasa de impuestos; 𝐸𝐵𝐼𝑇𝑡 , utilidad antes de intereses
e impuestos; 𝐷𝑒𝑝𝑡 , depreciación, amortización, provisiones y
movimientos no efectivos; 𝐶𝑎𝑝𝑥𝑡 , gastos de capital; por
último, ∆𝑁𝑊𝐶𝑡 , variación de capital de trabajo neto operativo.
2.2. Flujo de caja libre y la rentabilidad corporativa
Considerando la proposición (1) del flujo de caja libre, se
puede apreciar que no es sólo el resultado de la aplicación del
principio de causación contable, es más que eso, es el
rendimiento financiero que se obtiene como consecuencia de
una serie de inversiones realizadas por los dueños, en un
periodo de tiempo determinado. Es decir, el FCF es el dinero
disponible para los dueños y sus acreedores financieros como
retorno de sus inversiones.
Proposición 2. Si una empresa posee flujo de caja libre, FCF,
y además posee costos hundidos o inversiones previas, 𝐼,
entonces la relación entre ambos rubros es una rentabilidad
corporativa, 𝑅𝑐𝑡 , tal que, ver Ecuación (3):
𝑅𝑐𝑡 =
𝐹𝐶𝐹𝑡
𝐼𝑡−1
(3)
Sin embargo, si se tiene una secuencia de flujos de un proyecto
cuya inversión inicial fue de 𝐼0 unidades monetarias, entonces
la rentabilidad intrínseca está dada por la Tasa Interna de
Retorno-IRR (Hazel, 2003). De igual manera, Fisher
popularizo en 1907 el concepto del capital ficticio formulado
por Marx en el año de 1894, y lo denominó el Valor Presente
Neto-NPV (Fisher, 1907).
Tales ideas, dotaron de herramientas a los economistas
financieros de la época, los cuales lograron abordar los
problemas alrededor de la valoración de activos. En 1938 John
Burr Williams planteó el primer modelo de valoración de
acciones utilizando el concepto del NPV a los dividendos
esperados, refiriéndose a él como el valor intrínseco
(Williams, 1938); luego, Harry Markowitz afirmó que el
concepto de la teoría del portafolio que él formuló se debe a
los trabajos de Williams (Markowitz, 1990); y por último, la
fórmula de Gordon-Shapiro que es una extensión del modelo
del NPV propuesto igualmente por Williams (Gordon y
Shapiro, 1956). Pero sin lugar a dudas, el mayor aporte a la
economía financiera de la empresa lo realizó Joel Dean (1951),
cuando aplicó el concepto del NPV y de la IRR a los proyectos
que llevan a cabo las empresas, definiéndolo como el
Presupuesto de capital.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital
_________________________________________________________________________________________________________________________
2.3. Presupuesto de capital
La toma de decisiones gerenciales gira alrededor de dos ejes
fundamentales: la inversión y la financiación; de esta manera,
evaluar la calidad de tales decisiones implica aplicar el criterio
de NPV o IRR, permitiendo definir una medida de riqueza y
de rentabilidad para aquellos proyectos disponibles para la
compañía. No obstante, ambas medidas obligan al gerente no
sólo a realizar estimaciones del flujo de caja libre y del costo
de capital, sino también de la incertidumbre asociada a tales
estimaciones futuras. Para llevar a cabo los planes de
inversión, la compañía dispone de los recursos que puede
obtener de la emisión de deuda, de las acciones preferentes, de
las acciones comunes y de las utilidades retenidas y a cada una
de ellas le corresponderá un costo de oportunidad 𝑟𝑑 , 𝑟𝑝 , 𝑟𝑟𝑒 ,
𝑟𝑠 , respectivamente; que al final configurará la tasa promedio
ponderada de capital WACC, 𝑟𝑤 rw, de todas las fuentes de
financiación de la compañía.
Definición 2. El Wacc Es un promedio ponderado entre un
costo y una rentabilidad exigida, representa la tasa a la que se
debe descontar el FCF para obtener el mismo valor de las
acciones que proporciona el descuento de los flujos para el
accionista, ver Ecuación (4):
𝑅𝑤 = 𝑤𝑑 𝑟𝑑 (1 − 𝜏) + 𝑤𝑝 𝑟𝑝 + 𝑤𝑒 (𝑟𝑟𝑒 + 𝑟𝑠 )
(4)
Donde, {𝑤𝑑 , 𝑤𝑝 , 𝑤𝑒 } son los pesos de las fuentes de
financiación y 𝑤𝑑 + 𝑤𝑝 + 𝑤𝑒 = 1.
Considerando que el administrador financiero da prioridad a
las inversiones más rentables y a las fuentes de financiación
más baratas para la compañía, la empresa ira asignando
recursos a tales proyectos hasta que el costo de adquirir
aquellos recursos (WACC) iguale la rentabilidad de los
mismos (IRR). A este problema se denomina el Presupuesto
de Capital o Capital Budgeting.
La solución a tal problema de maximización implica establecer
los siguientes supuestos: los proyectos no son necesariamente
mutuamente excluyentes, todos los proyectos disponibles
tienen niveles de riesgo diferentes, se dispone de los recursos
para llevar a cabo el proceso de inversión, los flujos generados
por un proyecto liberan recursos para llevar a cabo otros
proyectos, el efecto de las decisiones estratégicas y de
investigación y desarrollo se encuentran dentro del flujo de
caja libre agregado de la compañía, el administrador
selecciona los proyectos más rentables para la compañía, el
flujo de caja descontado es el indicador por excelencia para
evaluar los proyectos disponibles para la compañía debido al
problema de escala y de temporalidad que presenta la IRR, y
por último no se considera el efecto inflacionario. .
2.4. Teoría de precios de activos
La teoría del precio de los activos busca comprender el valor
o el precio de un activo a partir de sus rendimientos inciertos,
del horizonte de inversión y del riesgo involucrado en el
mismo, siendo esto último lo que determina su interés y su
intercambio. A principio del presente siglo el profesor
140
Cochrane de la Universidad de Chicago estableció la ecuación
fundamental de valoración y su principio organizador, bajo el
argumento de que los precios de los activos son iguales al valor
esperado de sus flujos futuros de caja descontados (Cochrane,
2005). Esto es:
Definición 3. La Ecuación Fundamental de Valoración, BPA,
se define como el valor esperado del producto entre el flujo de
caja, 𝑥, y el factor de descuento estocástico, 𝑚, de cualquier
activo, tal que, ver Ecuación (5):
𝑝 = 𝐸(𝑚𝑥)
(5)
Su simplicidad y universalidad, permiten separar los supuestos
económicos de la representación empírica que se pretende
analizar, esto permitirá hacer uso de la geometría estadopreferencia o media-varianza. Por su parte, los métodos
empíricos tales como las series de tiempo, los métodos
generalizados de momentos y de máxima verosimilitud, entre
otros, ajustarán los parámetros libres del modelo de tal manera
que se minimice el error de estimación del valor del activo. No
obstante, una condición necesaria de optimalidad para tal
modelo se le denomina la transversalidad.
Definición 4. La condición de transversalidad es una
condición para garantizar tanto la optimalidad del proceso
como la solución cerrada de modelos de optimización que
dependen de horizontes de tiempo al infinito; específicamente
para el modelo basado en consumo se define como, ver
Ecuación (6):
lim 𝐸𝑡 [𝑚𝑡,𝑡+𝑗 𝑝𝑡+𝑗 ] = 0
𝑗→∞
(6)
2.3. Modelo de consumo intertemporal
En general, los modelos que representar el comportamiento de
un consumidor racional buscan maximizar un función de
utilidad de consumo intertemporal, la cual es cóncava,
estrictamente creciente y diferenciable (Sargent, 1987). Esto
es:
∞
Maximizar
𝐸0 ∑ 𝛽 𝑡 𝑢(𝑐𝑡 )
0 < 𝛽 < 1,
𝑡=0
donde 𝑐𝑡 es el consumo del individuo en tiempo 𝑡 y 𝛽 es la tasa
de impaciencia. Un caso particular de la BPA proviene de la
condición de primer orden para un problema de consumo
intertemporal de un individuo poseedor de riqueza limitada;
por ello, la decisión de invertir en un determinado activo
depende de su utilidad marginal y de los flujos generados por
aquel activo; por lo tanto, el precio de un activo está
determinado por el valor esperado de sus flujos de caja, 𝑑,
descontados al factor de impaciencia de consumo
intertemporal, 𝛽, y la tasa marginal de sustitución de consumo
intertemporal dada por la relación de utilidades marginales de
consumo, 𝑢′(𝑐𝑡 ). Esto es, ver Ecuación (7):
∞
𝑝𝑡 = 𝐸𝑡 ∑ 𝛽 𝑗
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
𝑗=1
𝑢′(𝑐𝑡+𝑗 )
𝑑 ,
𝑢′(𝑐𝑡 ) 𝑡+𝑗
(7)
141
Galvis Andrés1, 2; Galindo Edwin3
_______________________________________________________________________________________________________________________________
Siempre y cuando se cumpla la condición de transversalidad.
Esto es:
lim 𝐸𝑡 [𝛽 𝑗
𝑗→∞
2.4. Ecuación de valor corporativo
𝑢′(𝑐𝑡+𝑗 )
𝑝 ] = 0.
𝑢′(𝑐𝑡 ) 𝑡+𝑗
Se puede observar como el producto entre el factor de
impaciencia y la tasa marginal de sustitución de consumo
intertemporal representa el factor de descuento estocástico,
𝑚𝑡,𝑡+𝑗 .
Por otra parte, la solución a tal problema de optimización
revela dos resultados de suma importancia, el primero
corresponde al principio de equivalencia financiera, mientras
el segundo configura la tasa libre de riesgo (Cochrane, 2005).
Proposición 3. El precio de un activo en 𝑡 es igual al valor
esperado del producto entre al factor de descuento estocástico
de 𝑡 a 𝑡 + 1 y la suma entre el precio del activo y el dividendo
en el periodo 𝑡 + 1. Esto es, ver Ecuación (8):
𝑝𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+1 (𝑝𝑡+1 + 𝑑𝑡+1 )].
partir de las especializaciones que se puedan realizar al factor
de descuento estocástico, 𝑚, y al flujo de caja, 𝑑.
(8)
Todo lo anterior, permite configurar una medida de valoración
de empresas bajo un entorno de riesgo.
Definición 5. Se le denomina la ecuación de valor corporativo
a la estimación del valor presente, 𝑉𝑡 , de los flujos futuros de
caja, 𝐶𝐹, al factor de descuento estocástico, 𝑚, para un
horizonte infinito de valoración.
Si una empresa es una activo que no posee un mercado en el
cual su precio logre ser determinado por el libre juego de oferta
y demanda, y además los pocos oferentes y demandantes del
activo estructuran sus expectativas de consumo a partir de la
generación de flujo de caja de la compañía, lo que implica que
su poder de negociación se limita sólo al intercambio de
tiempo, incertidumbre, opciones e información a través flujo
de caja, entonces el problema de valoración de empresas
consiste en:
∞
Proposición 4. Si un activo genera un flujo de caja cierto
entonces existe una tasa de libre de riesgo representada por el
recíproco del valor esperado del factor de descuento
estocástico. Tal que, ver Ecuación (9):
𝑓
𝑅𝑡,𝑡+1 =
1
𝐸𝑡 [𝑚𝑡,𝑡+1 ]
.
Maximizar
Proposición 5. Si un agente es neutral al riesgo, no posee
impaciencia y no percibe dividendos entonces el precio de un
activo mediante el enfoque basado en consumo seguirá una
caminata aleatoria siempre y cuando los choques aleatorios
posean media cero y varianza constante, ver Ecuación (10):
0 < 𝛽 < 1,
𝑗=0
Sujeto a:
𝑐𝑡 = 𝑒𝑡 − 𝑉𝑡 𝜉
𝑐𝑡+𝑗 = 𝑒𝑡+𝑗 + 𝐶𝐹𝑡+𝑗 𝜉,
(9)
Por otra parte, si se considera la existencia de un mercado en
el cual el activo puede ser negociado y además los agentes que
participan en aquel mercado son neutrales al riesgo, podemos
concluir que la dinámica del precio del activo posee una
estructura aleatoria; en particular, una martingala (Cochrane,
2005).
𝐸𝑡 ∑ 𝛽 𝑗 𝑢(𝑐𝑡+𝑗 )
donde el agente posee un nivel de renta, 𝑒, un nivel de
consumo, 𝑐, un volumen de inversión, 𝑉𝜉, y un retorno
esperado de la inversión o flujo de caja, 𝐶𝐹.
Proposición 6. Si una empresa genera flujo de caja y posee al
menos una fuente de financiación la cual cumple con las
condiciones de preferencias regulares y admite una función de
utilidad entonces mediante el enfoque basado en consumo su
medida de valor estará determinada por la Ecuación (11):
∞
𝑉𝑡 = 𝐸𝑡 ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 .
(11)
𝑗=1
𝑝𝑡+1 = 𝑝𝑡 + 𝜀𝑡+1 .
(10)
En general, la expresión (7) no asume: mercados completos,
normalidad de factor y del flujo, funciones de utilidad
cuadrática, mercados en equilibrio o que los inversionistas
perciben una renta propia. De hecho, se aplica a cada inversor
y activo en particular, sean bonos, acciones, proyectos, etc.,
independientemente de la presencia de otros inversores o
activos, de una función de utilidad monótona y cóncava, o de
la existencia de una ley de probabilidad para el retorno o el
flujo de caja generado por aquel activo; en particular, el hecho
de involucrar momentos condicionales no implica asumir que
los retornos son independientes e idénticamente distribuidos
(i.i.d).
La universalidad de tal ecuación ocasiona un pobre ajuste en
la práctica, motivando la búsqueda de modelos alternativos a
Para 𝑚 > 0 y 𝐶𝐹 ∈ ℝ siempre y cuando se cumpla la
condición de transversalidad.
De forma equivalente, podemos expresar el valor corporativo
en 𝑡 como el valor esperado del producto entre el factor de
descuento y el valor corporativo en 𝑡 + 1. Esto es, Ecuación
(12):
𝑉𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+𝑗 (𝑉𝑡+1 + 𝐶𝐹𝑡+1 )].
(12)
Además, cuando el activo es negociado en un mercado
eficiente, el gran número de competidores y su poder de
negociación conducen sus estimaciones del valor intrínseco,
𝑉𝑡, a un precio de equilibrio, 𝑝𝑡 ; esto significa que ante
información perfecta todos los agentes del mercado poseen la
misma percepción del activo y su valoración difícilmente se
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital
_________________________________________________________________________________________________________________________
∞
diferenciará de su competidor. La siguiente proposición nos
indica que el valor esperado del valor corporativo debe
aproximarse al precio de dicho activo.
Proposición 7. Sea 𝑉̃𝑡 el valor particular de una realización 𝑤
en el periodo 𝑡, ver Ecuación (13):
𝑉𝑡 = ∑
1
𝑓
𝑅
𝑗=1 𝑡,𝑡+𝑗
𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] .
142
(18)
Proposición 12. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables
aleatorias no independientes, entonces, Ecuación (19):
∞
∞
𝑉̃𝑡 (𝑤) = ∑ 𝑚𝑡,𝑡+𝑗 (𝑤)𝐶𝐹𝑡+𝑗 (𝑤).
(13)
𝑉𝑡 = ∑ [𝐸𝑡 [𝑚𝑡,𝑡+𝑗 ] + 𝛽𝐶𝐹𝑡+𝑗 𝜆𝐶𝐹𝑡+𝑗 ] 𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] .
(19)
𝑗=1
𝑗=1
Si 𝑤 ∈ Ω, entonces 𝑉̃𝑡 (𝑤) será una variable aleatoria en 𝑡 y por
lo tanto, ver Ecuación (14):
𝑉𝑡 = 𝐸𝑡 [𝑉̃𝑡 ] → 𝑝𝑡 ,
(14)
siempre y cuando se cumpla la condición de transversalidad.
La siguiente variante de la ecuación de valor corporativo
coincide con la Ecuación (11).
Proposición 13. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables
aleatorias bajo ausencia de arbitraje y de un mercado de
negociación de activos, entonces, Ecuación (20):
∞
2.4. Supuestos de la BVE
𝑉𝑡 = 𝐸𝑡 ∑ 𝛽 𝑗
Como cualquier modelo matemático, posee algunos supuestos
básicos que facilitan su adaptación práctica, esto son: la
información disponible determina la esperanza condicional, el
factor de descuento estocástico está en función del riesgo
sistemático y no sistemático del flujo de caja de la compañía,
se cumple el principio de ausencia de arbitraje y la ley del
precio único como una función lineal, y la ausencia de arbitraje
está determinada por la no existencia de un mercado de
negociación.
𝑗=1
𝑢′(𝑐𝑡+𝑗 )
𝐶𝐹𝑡+𝑗 .
𝑢′(𝑐𝑡 )
(20)
Un resultado fundamental en el proceso de valoración se
encuentra en los trabajos de Ruback (1995), Fernández (2008),
Mitra (2010) y, Adserá y Viñolas (2003), que demostraron la
equivalencia entre diferentes planteamientos para valorar
empresas, permitiendo con ello configurar una medida de
valor corporativo que se ajusta a la información disponible
para el analista. Su resultado más importante se le denomina la
equivalencia en la valoración. Esto es, Ecuación (21) y (22):
2.4. Flexibilidad de la BVE
Proposición 14. Si,
A consecuencia de ello, se puede obtener cierta flexibilidad
para incorporar características especiales tanto para el factor
de descuento estocástico, m, como para al flujo de caja, CF.
𝑉𝑡 = 𝑓(𝐶𝐹, 𝑚) = 𝑓(𝐹𝐶𝐹, 𝑅𝑤𝑎𝑐𝑐 ).
Entonces,
∞
Esto es:
𝑉𝑡 = ∑
Proposición 8. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son valores
conocidos para 𝑗 ≥ 0, entonces, ver Ecuación (15):
∞
𝑉𝑡 = ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 .
(15)
𝑗=1
Proposición 9. Si 𝐶𝐹𝑡+𝑗 son valores conocidos para 𝑗 ≥ 0,
entonces, Ecuación (16):
∞
𝑉𝑡 = ∑
1
𝑓
𝑅
𝑗=1 𝑡,𝑡+𝑗
𝐶𝐹𝑡+𝑗 .
(16)
Proposición 10. Si 𝑚𝑡,𝑡+𝑗 es un valor conocido para 𝑗 ≥ 0,
entonces, Ecuación (17):
1
𝑅𝑤𝑎𝑐𝑐
𝑗=1 𝑡,𝑡+𝑗
𝐸𝑡 [𝐹𝐶𝐹𝑡+𝑗 ] .
(21)
(22)
Es decir, la ecuación de valor corporativo puede expresarse
como el valor esperado de los flujos de caja libre descontados
al costo promedio ponderado de capital. Por otra parte, con los
trabajos de Black-Scholes-Merton en la década de los 70’s, se
abrió un vínculo notablemente explotado por Myers (1976),
Trigeorgis y Manson (1987) y Pindyck (1988), el cual
denominan el valor de la flexibilidad en los proyectos y que se
basa en el concepto de la opción real.
Definición 6. Una opción real es una opción financiera bajo
un contexto estratégico con valor, 𝑂𝑡 , en función de su costo
de inversión, 𝑋, del valor actual de sus flujos futuros de caja,
𝑉𝑇 , y del factor de descuento estocástico tanto de la opción,
𝑚 𝑇 , como del proyecto, 𝑚𝑡,𝑡+𝑇 ; de tal manera que,
Ecuación (23):
∞
𝑉𝑡 = ∑ 𝑚𝑡,𝑡+𝑗 𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] .
Maximizar
(17)
𝑂𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+𝑇 (𝑉𝑇 − 𝑋)+ ].
𝑗=1
Sujeto a:
Proposición 11. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables
aleatorias independientes, entonces, Ecuación (18):
𝑚𝑡,𝑡+𝑇 > 0,
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
𝑉𝑇 = 𝐸𝑡 [𝑚 𝑇 𝐶𝐹𝑇 ],
1 = 𝐸𝑡 [𝑚 𝑇 𝑅𝑓 ]
(23)
143
Galvis Andrés1, 2; Galindo Edwin3
_______________________________________________________________________________________________________________________________
Donde la primera restricción implica ausencia de arbitraje,
mientras las dos restantes establecen la dinámica del valor
actual de los flujos y la tasa libre de riesgo respectivamente.
Sea,
En consecuencia, el valor global de una compañía está en
función del valor proporcionado por la operación normal y el
valor de las oportunidades estratégicas disponibles para el
negocio y que son responsabilidad del equipo gerencial.
la representación del valor corporativo agregado para 𝑚
proyectos permanentes y 𝑛 proyectos flexibles, y
𝑔
𝑉̃𝑖,𝑡 = 𝑉̃𝑚,𝑡 + 𝑂̃𝑛,𝑡 ,
𝑔
𝑔
Υ𝑖,𝑗 = 𝑉̃𝑖,𝑡 − 𝑉̃𝑗,𝑡 ,
𝑔
Definición 7. Se define el valor corporativo general, 𝑉𝑡 , como
un proceso aditivo entre el valor permanente, 𝑉𝑡 , y el valor
flexible otorgado por la oportunidad estratégica u opción real
del negocio, 𝑂𝑡 . Esto es, Ecuación (24):
El cambio en el valor corporativo para dos portafolios
cualesquiera de proyectos; entonces si 𝒜 es una familia de
valores agregados, se puede definir una medida de riesgo sobre
𝑔
𝑉̃𝑡 .
∞
𝑔
𝑉𝑡 = 𝐸𝑡 ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 + 𝑚𝑡,𝑡+𝑇 (𝑉𝑇 − 𝑋)+ .
(24)
𝑗=1
Lo anterior implica que: dependiendo de la información
disponible la BVEg se aplicará tanto en un espacio de tiempo
discreto como continuo, el componente de opción real posee
las características propias de una opción financiera call de tipo
americano con dividendos, el valor de la opción real es
independiente del valor corporativo, la ausencia de opciones
reales o el no ejercicio de la opción real implican un valor cero
en el término, y por último, dependiendo de la instrumentación
financiera en el mercado es posible reemplazar la opción real
por cualquier instrumento derivado.
El argumento lógico parte del hecho de que el valor
corporativo es una variable aleatoria de tipo transversal la cual
no es observable para periodos mayores a 𝑡; es decir, la
intención no radica en el estudio de la variabilidad entre
periodos, sino en la variabilidad de la posición actual del
portafolio de proyectos condicionado al componente
permanente y al componente flexible.
2.6. Riesgo de valor corporativo
Definición 8. Una medida de riesgo es una función tal que,
𝜌 ∶ 𝒜→ℝ
𝑔
𝑔
𝑉̃𝑡 → 𝜌(𝑉̃𝑡 )
2.5. Distribución de muestreo de la BVE
La siguiente proposición es el resultado de las investigaciones
llevadas a cabo en las últimas décadas por Cochrane (2005),
Myers (1976), Dufresne (1990) e Hillier (1963). Esto es:
Proposición 15. Sea 𝑉̃𝑡 (𝑤) y 𝑂̃𝑡 (𝑤) una estimación particular
de la trayectoria 𝑤 en el periodo 𝑡,
𝑔
𝑉̃𝑡 (𝑤) = 𝑉̃𝑡 (𝑤) + 𝑂̃𝑡 (𝑤),
Si 𝑤 ∈ Ω, entonces 𝑉̃𝑡 (𝑤) y 𝑂̃𝑡 (𝑤) serán variables aleatorias
en 𝑡 y por lo tanto, Ecuación (25):
𝑔
𝑉̃𝑡 = 𝐸𝑡 [𝑉̃𝑡 + 𝑂̃𝑡 ],
(25)
y,
𝑔
𝑔
𝑉𝑡 = 𝐸𝑡 [𝑉̃𝑡 ] → 𝑝𝑡 ,
siempre y cuando se cumpla la condición de transversalidad.
De la proposición (7) y de la ecuación de valor corporativo
𝑔
general (24) se tiene que 𝑉̃𝑡 también es una variable aleatoria,
tal que, Ecuación (26):
𝑔
𝑉̃𝑡 ∽ ℒ(𝜃),
Definida con base en una medida de probabilidad, ℙ, y con 𝒜
𝑔
como una familia de todos los posibles valores de 𝑉̃𝑡 .
Además, se dice que es una medida coherente de riesgo si
cumple con las propiedades de monotonía, subaditividad,
homogeneidad positiva e invarianza bajo traslaciones.
La medida de riesgo que se propone en la presente
investigación pretende ir más allá de lo establecido respecto a
la valoración de empresas, permitiendo en una economía con
ausencia de un mercado de valores y de derivados ajustar el
perfil de riesgo y las preferencias de consumo de los
inversionistas, accionistas y administradores financieros, los
cuales demandan información de tales procesos de valoración
con fines de enajenación, inversión, calificación de riesgos y
gerencia del valor, entre otros; bajo un entorno de riesgo e
incertidumbre.
Definición 9. El Riesgo de valor - RiskV, es una medida de
riesgo basada en consumo en ausencia de un mercado de
capitales desarrollado, cuantificando la potencial destrucción
de valor corporativo a un nivel de confianza (1 − 𝛼) 100%,
como consecuencia de la variabilidad de su estructura
operacional y financiera, y de las posiciones estratégicas de la
compañía en el futuro,
(26)
̃𝑔
𝑔
Esto es, la variable aleatoria 𝑉̃𝑡 sigue una ley de probabilidad
ℒ de parámetro 𝜃.
𝑉𝑡
𝑔
𝑔
𝑔
𝑔
𝜌(𝑉̃𝑡 ) = 𝑅𝑖𝑠𝑘𝑉1−𝛼
= 𝑖𝑛𝑓{𝑣̃𝑡 ∈ ℝ|ℙ(𝑉̃𝑡 ≤ 𝑣̃𝑡 ) ≥ 𝛼}
de forma equivalente, Ecuación (27):
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital
_________________________________________________________________________________________________________________________
𝑔
̃𝑔
𝑉
𝑡
ℙ (𝑉̃𝑡 ≤ 𝑅𝑖𝑠𝑘𝑉1−𝛼
) = 𝛼.
(27)
Sin embargo, no puede considerarse como una medida
coherente ya que no cumple con la propiedad de subaditividad.
Es decir, dado que las opciones reales están en función de un
criterio subjetivo de selección por parte de los directivos de la
compañía entonces el añadir opciones no siempre permitirá
reducir el riesgo. Por tal motivo, se debe formular la medida
condicionada del riesgo de valor, RiskV, de forma análoga al
valor en riesgo condicional CVaR.
Definición 10. El Riesgo de valor condicional - CRiskV, es
una medida coherente de riesgo complementaria al RiskV sin
el problema de sub-aditividad,
̃𝑔
̃𝑔
𝑉𝑡
𝑉𝑡
𝑔
𝑔
𝑔
𝜌(𝑉̃𝑡 ) = 𝐶𝑅𝑖𝑠𝑘𝑉1−𝛼
= 𝐸 [𝑉̃𝑡 |𝑉̃𝑡 < 𝑅𝑖𝑠𝑘𝑉1−𝛼
],
es decir, Ecuación (28):
̃𝑔
𝑉
𝑡
𝐶𝑅𝑖𝑠𝑘𝑉1−𝛼
=
1 𝛼
̃𝑔
𝑉
𝑡
∫ 𝑅𝑖𝑠𝑘𝑉1−𝛽
𝑑𝛽 .
𝛼 0
(28)
Su bondad se encuentra en la cuantificación de la severidad de
una pérdida de valor corporativo y en la obtención de
parámetros para la comparación entre diferentes estrategias
empresariales; además, sirve como indicador corporativo de
riesgo para la comparación entre empresas de un mismo sector
e indicador de la exposición del riesgo corporativo global de
una economía.
2.7. Estimación de parámetros del modelo
El Cash Flow como proceso estocástico de tipo binomial fue
planteado por Kruschwitz y Loffler (2010). Esto es, si 𝑢 ocurre
con probabilidad 𝑝 y 𝑑 con probabilidad 𝑞 = 1 − 𝑝, entonces,
Ecuación (29):
𝐸𝑡 [𝐶𝐹𝑡+𝑘 ] = (𝑢𝑝 + 𝑑𝑞)𝑘 𝐶𝐹𝑡 .
144
∀𝑏 ′ ∈ 𝐵, 𝑏 ′ ≲ 𝑥 ⇒ 𝑥, máximo de (𝑋, ≳) .
(30)
Entonces se dice que un individuo realiza una elección racional
cuando se produce entre los elementos del conjunto de
elección, 𝒞(𝐵).
Con base en lo anterior, el comportamiento de un individuo
que posee determinadas preferencias respecto a las alternativas
de elección, X, debe cumplir con las condiciones de
completitud, reflexivilidad y transitividad, respectivamente.
Además, la construcción de una función de utilidad implica
que también se cumplan los supuestos de continuidad y de
monotonicidad fuerte para las preferencias de un individuo, y
que a su vez será una representación fiel e isótona sobre el
conjunto de elección.
Considerando su proceso de elección bajo un ambiente de
riesgo las preferencias parten del supuesto de que las personas
por lo general no están dispuestas a seleccionar alternativas
simplemente por el criterio del valor esperado; por lo cual, se
considera que las personas en su mayoría son adversas al
riesgo. Esto sugiere que un individuo que acepte ciertas reglas
de comportamiento con respecto al riesgo y cuya elección este
basada en loterías, sus preferencias podrían representarse
mediante una función de utilidad.
Ahora, considerando la existencia de un conjunto de elección
que forma un espacio de mixtura, es posible definir un espacio
de utilidad en el sentido de Luce y Raïffa facilitando la
construcción de una función de utilidad.
Con base en las anteriores premisas, existe un individuo que
siendo accionista de una empresa posee un nivel inicial de
riqueza, además, se encuentra en el problema de continuar
siendo accionista o ceder tal derecho mediante la venta de su
posición. Es decir, debe elegir entre continuar con la lotería o
venderla por una lotería degenerada. En definitiva, el mínimo
valor para el cual el propietario de la empresa estaría dispuesto
a venderla o continuar con ella sería un cierto equivalente que
estará en función de su aversión al riesgo.
(29)
Las consecuencias prácticas del anterior planteamiento
permiten una flexibilidad entre la modelización probabilística
objetiva y subjetiva, adaptándose fácilmente a la información
disponible y al criterio de cada administrador financiero. Más
adelante se presenta un tipo de estimación basada en procesos
estacionarios de tipo ARMA cuyas propiedades cumplen con
la condición de transversalidad.
Por otra parte, podemos admitir que el problema de valoración
podría plantearse desde la perspectiva de la teoría de la
decisión, específicamente, como un problema de lotería
compuesta o multietápica, donde el propietario lleva a cabo
una secuencia de decisiones de inversión y financiación. Este
enfoque exige plantear unas reglas de comportamiento que
definen una elección racional bajo riesgo.
Definición 11. Consideremos una estructura de preferencia
(𝑋, ≳) y un conjunto de elección, 𝒞(𝐵), constituido por los
mejores elementos de 𝐵, con 𝐵 ⊂ 𝑋. Esto es, Ecuación (30):
Suponiendo una tolerancia absoluta al riesgo de tipo lineal por
parte del individuo (LeRoy y Werner, 2010), tal que:
𝑇(𝑥) = 𝜂 +
𝑥
,
𝛾
se obtiene la medida de aversión relativa al riesgo,
𝑥 −1
𝑢′′(𝑥)
𝑟𝑟(𝑥) = 𝑥 (𝜂 + ) = −𝑥
𝛾
𝑢′(𝑥)
Luego, haciendo 𝜂 = 0, se obtiene:
𝑟𝑟(𝑥) = 𝛾
Que corresponde a la situación donde la medida de aversión
relativa al riesgo es constante e independiente del consumo
(CRRA). Por último, la familia de funciones de utilidad de
consumo basadas en tal medida están dadas por Ecuación (31):
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
145
Galvis Andrés1, 2; Galindo Edwin3
_______________________________________________________________________________________________________________________________
1
𝑥 1−𝛾 ,
𝑢(𝑥) = {1 − 𝛾
ln 𝑥 ,
𝑠𝑖 𝛾 ≠ 1
.
(31)
𝑠𝑖 𝛾 = 0
Proposición 16. El valor corporativo de una empresa es igual
a la suma a perpetuidad del producto entre los flujos de caja y
la tasa marginal de consumo intertemporal isoelástica. Esto es,
Ecuación(32):
+
+
𝑂𝑡 = 𝑒 −𝑟(𝑡+1) [𝑝(𝑉1,𝑡+1 − 𝑋) + 𝑞(𝑉2,𝑡+1 − 𝑋) ], (34)
3. RESULTADOS Y DISCUSIÓN
∞
𝑐𝑡+𝑗 −𝛾
𝑉𝑡 = 𝐸𝑡 ∑ 𝛽 (
) 𝐶𝐹𝑡+𝑗 .
𝑐𝑡
𝑗
(32)
𝑗=1
El factor de descuento permite captura el deseo por más
consumo y su impaciencia intertemporal, más que un objetivo
intermedio de media-varianza como se logra con el CAPM; las
características de monotonía y concavidad de la función,
reflejan un deseo por más consumo y un decrecimiento
marginal de su utilidad por un consumo adicional. De igual
forma, agrupa en una sola cifra la aversión al riesgo y la
impaciencia intertemporal de un inversionista, expuesto a una
economía con ausencia de un mercado de valores desarrollado.
Finalmente, El valor de flexibilidad representa un agregado de
valor corporativo, y se le denominará opción real siempre y
cuando se verifique la condición de un entorno incierto y la
flexibilidad de los directivos respecto a una inversión (Titman
y Martin, 2009). Además, se debe agregar que la incertidumbre
debe impulsar el valor del proyecto, los directivos deben ser
racionales y las estrategias deben ser creíbles y ejecutables
(Mun, 2002).
Existe una amplia variedad de opciones reales que satisfacen
tales condiciones, sin embargo la familia de opciones
estratégicas call permite adaptar los supuestos en ausencia de
un portafolio replicante y debido a un mercado de valores o de
derivados ineficiente. En efecto, las opciones estratégicas
brindan la posibilidad de expandir en escala como en alcance
una inversión, de tal forma que una sucesión de inversiones le
permitan pasar de ser una compañía sin valor a una que vale
por sus oportunidades estratégicas.
De hecho, la misma naturaleza de las opciones reales, cuyo
activo subyacente es un activo sin mercado, dificulta su
valoración mediante los argumentos de duplicidad y no
arbitraje que rigen a las opciones financieras; no obstante, el
principio financiero es el mismo y como tal es posible generar
argumentos de equivalencia financiera y equivalente cierto
que permitan aproximar el valor del contrato. Las
consecuencias de ello, una tasa neutral al riesgo mayor que la
tasa libre de riesgo.
Puesto que en la determinación del precio de la opción real
estratégica no se puede hacer uso de la teoría de juegos y la
duplicación de carteras, se procede mediante el enfoque
probabilístico. Esto es, Ecuación (33):
𝑝=
Representa la probabilidad que se produzca el valor actual del
proyecto, 𝑉1,𝑡+1 , equivalente al rendimiento que se obtendría
de una inversión más segura. Por lo tanto, el valor esperado de
la opción estratégica de tipo call en el periodo 𝑡, queda
determinada por Ecuación (34):
𝑉𝑡 𝑒 𝑟(𝑡+1) − 𝑉2,𝑡+1
,
𝑉1,𝑡+1 − 𝑉2,𝑡+1
(33)
La información financiera proporcionada por la compañía, en
unidades monetarias (u.m), corresponde a los registros
mensuales comprendidos entre el 31 de Enero del 2001 al 31
de Diciembre del 2011; De igual forma, se conoce que la
compañía posee una oportunidad estratégica valorada en una
inversión de 400 u.m con opción de llevarla acabo durante los
siguientes 3 meses, al final de estos, los directivos retirarán la
disponibilidad de este aumento de capital en caso de no ejercer
la opción. Por otra parte, debido a la coyuntura del país, el
acceso a los mecanismos de financiación para la compañía son
muy limitados, a tal punto que depende de sus propietarios las
futuras inyecciones de capital que permitan financiar las
potenciales oportunidades de negocio disponibles para de la
empresa. Esto implica que:
𝑐
𝑤𝑎𝑐𝑐
𝑅𝑡,𝑡+𝑗
= 𝑅𝑡,𝑡+𝑗
y 𝐶𝐹𝑡+𝑗 = 𝐹𝐶𝐹𝑡+𝑗
Por lo tanto, los directivos de la compañía están interesados en
responder a las siguientes preguntas: ¿Cuál es el valor
corporativo esperado si no existen oportunidades
estratégicas?, ¿Cuál es el valor corporativo esperado si la
empresa posee una posición estratégica?, ¿Qué tan severa es
nuestra pérdida de valor? y ¿Existe algún mecanismo para
mitigar la pérdida de valor corporativo?.
Mediante tales registros financieros y luego del análisis
estructural, se obtiene la dinámica del Free Cash Flow la cuál
puede ser determinada por un proceso ARMA (1, 0) o
ARMA(1, 2) a partir de la estimación de máxima verosimilitud
condicional; ahora, considerando que ambos modelos poseen
la propiedad de estacionariedad y aplicando la dinámica
propuesta por Kruschwitz, se puede decir que mediante el
principio de parsimonia la estructura ARMA más conveniente
es la de orden (1,0); cuyo modelo de predicción está
determinado por Ecuación (35):
𝐹𝐶𝐹𝑡+𝑘 = 0,6047 ∗ 𝐹𝐶𝐹𝑡+𝑘−1 + 𝜀𝑡+1 ,
(35)
De hecho, si los errores se suponen normales, entonces:
𝑘−1
̂𝑡 (𝑘)~𝑁 (𝐹𝐶𝐹𝑡+𝑘 ; 30,31 ∑ 0,60472𝑖 ).
𝐹𝐶𝐹
2
𝑖=0
Por otra parte, el procedimiento para estimar el parámetro de
aversión al riesgo, 𝛾, y el factor subjetivo de descuento, 𝛽,
parte del trabajo de Arango y Ramírez (2007), estableciendo
con base en la información de consumo en Colombia un
modelo lineal, tal que, Ecuación (36):
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital
_________________________________________________________________________________________________________________________
𝑐𝑡+1
𝑓
ln (
) = 0,018 − 0,1334 ∗ ln 𝑅𝑡 .
𝑐𝑡
(36)
Observando, tenemos que aumentos en la tasa de interés
ocasionan una reducción de la tasa de crecimiento del
consumo, además se deduce que 𝛾 = 8,5 y 𝛽 = 0,87, lo cual
nos lleva a concluir que el inversionista colombiano es
impaciente y amante al riesgo. Debido a la proximidad
geográfica y las características económicas del país,
suponemos que el inversionista ecuatoriano posee actitudes
similares.
146
Sin embargo, al considerar la oportunidad estratégica del taller
metalmecánico el valor cerrado de la opción se ubica en 300,01
u.m y con ello, un nuevo riesgo de valor de 177,92. En este
caso, la oportunidad estratégica es suficiente para cubrir el
riesgo por pérdida de valor de la compañía; sin embargo, la
compañía debe indagar por más oportunidades que le permitan
mantener el valor a largo plazo. Es decir, el negocio vale por
las oportunidades estratégicas que posea a través del tiempo,
ver Figura 2.
Debido a que la empresa no posee actualmente ningún tipo de
apalancamiento, el factor de descuento estocástico queda
determinado por:
0,80 < 𝑚𝑡,𝑡+1 < 0,87.
Por otra parte, si consideramos un proyecto cuya inversión
inicial hoy se estima en 𝑋 u.m y cuyo valor actual de sus flujos
futuros de caja libre se estima en 𝑉 u.m; además, el
administrador no está obligado a llevar a cabo el proyecto de
forma inmediata por lo cual dispone de 3 meses para tomar la
decisión definitivamente. Entonces, su problema de decisión
consiste en aceptar o rechazar el proyecto si las condiciones
son las adecuadas para el mismo. Por lo tanto, aplicando el
algoritmo Hull-White obtenemos que:
𝜎𝑉𝑡 = 1,225 ≡ 125%
Así que, 𝑢 = 3,51 y 𝑑 = 0,28. Ahora, considerando que las
tasas de interés en Ecuador para depósitos a plazo superiores a
361 días se ubica en 5,31% anual, entonces:
𝑝 = 0,2232 y 𝑞 = 0,7768,
con lo que concluimos que la opción estratégica de la
compañía se encuentra valorada en 300,01 u.m. Finalmente, y
considerando la independencia entre el factor de descuento
estocástico y el free cash flow, tenemos a un nivel de confianza
del 95% que el riesgo de valor es de -123,43 u.m cuando sólo
se evalúa el componente permanente; es decir, se espera con
un nivel de confianza del 95% que la potencial destrucción de
valor corporativo no exceda las 123,43 u.m debido a la
variabilidad de su estructura operacional y financiera actual; lo
cual implica que si la compañía no continua explotando
oportunidades de negocio no generará valor a largo plazo y por
lo tanto destruirá la riqueza de sus propietarios, ver Figura 1.
Figura 2. Distribución del valor corporativo general.
4. CONCLUSIONES
En general, la ecuación de valor corporativo parte del enfoque
basado en consumo proporcionando flexibilidad en el uso de
un factor de descuento estocástico que puede expresarse
linealmente y adoptar formas alrededor de una media-varianza
o estado-preferencia. De igual manera, el flujo de caja adquiere
propiedades dinámicas bajo el enfoque, accediendo a
características especiales que le permiten moverse en un
espacio y tiempo determinado.
Por su parte, las medidas de flujo de caja libre y costo de
capital corporativo se adaptan satisfactoriamente al enfoque
basado en consumo, debido al vínculo que la valoración de
empresas posee con el mercado de valores, permitiendo así
definir una medida de valor en la cual los demás métodos de
valoración convergen cuando conceptualmente son correctos;
sin embargo, a pesar de la ausencia de un mercado organizado
que deja inoperable algunos principios, el modelo basado en
consumo facilita la construcción de un factor de descuento
estocástico de acuerdo al perfil de riesgo y a la función de
utilidad de cada inversionista.
Finalmente, lo más importante, la independencia entre el factor
y el flujo de caja no son evidentes como nos presenta la
literatura financiera, la relación que presentan no es de
correlación constante a través del tiempo, más bien es una
correlación dinámica; es decir, el aporte del factor de
descuento al flujo de caja libre es un proceso estocástico.
A diferencia de la propuesta de Kruschwitz, la dinámica del
flujo de caja podría ser modelada a partir de un proceso
autoregresivo de media móvil ARMA(p, q), siendo los
modelos AR(p) y MA(q) casos particulares del mismo. Tal
argumento, se justifica con las propiedades de estacionariedad
que posee el proceso de medias móviles-MA y por el teorema
de Wold.
Figura 1. Distribución del valor corporativo del componente permanente.
El riesgo de valor-RiskV no es una medida coherente de
riesgo, no obstante, mide la potencial destrucción de valor
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
147
Galvis Andrés1, 2; Galindo Edwin3
_______________________________________________________________________________________________________________________________
corporativo a consecuencia de la variabilidad de su estructura
operacional y financiera, y de las posiciones estratégicas de la
compañía en el futuro; se basa en el modelo de consumo
intertemporal para una economía con ausencia de un mercado
de capitales desarrollado, permitiendo ajustar el perfil de
riesgo y las preferencias de consumo de los inversionistas,
accionistas y administradores financieros, los cuales
demandan información en un entorno de riesgo e
incertidumbre.
AGRADECIMIENTO
Agradezco a Edwin Galindo, Juan Carlos García, Carlos
Valladares y Ana María Aldás por su valiosos comentarios en
la revisión del documento, A la Universidad de las Américas
y la Universidad de las Fuerzas Armadas – ESPE por el valioso
tiempo y el espacio que me brindaron para abordar tan
profundo problema de investigación. Y por supuesto, le
agradezco a toda mi familia que siempre han acompañado y
apoyado mi labor docente e investigativa. A todos ellos
gracias.
REFERENCIAS
Markowitz, H. (1990). Foundations of portfolio theory. Journal of finance.
46(2), 469-477.
Mitra, S. (2010). Note on cash flow valuation methods: comparison of WACC,
FTE, CCF, and APV approaches. Obtenido de la bases de datos de Richard
Ivey School of Business.
Mun, J. (2002). Valoración. Real options analysis: tools and
techniques for valuing strategic investment and decisions. New York, United
States: John Wiley & Sons, Ltd.
Myers, S. (1977). Determinants of corporate borrowings. Journal of financial
economics. 5(2), 147-175.
Pindyck, R. (1988). Irreversible investment, capacity choice and the value of
the firm. American Economic Review. 78(5), 969-985.
Ross, S., Westerfield, R., y Jordan, B. (2010). Fundamentos de finanzas
corporativas, 7ma ed. México DF, México: McGraw- hill.
Ruback, R, (1995). An introduction to cash flow valuation
methods. Obtenido de la base de datos de Harvard Business School Publishing.
Sargent, T. (1987). Dynamic macroeconomic theory. Cambridge, United
States: Harvard University Press.
Titman, S., y Martin, J. (2009). Valoración. El arte y la ciencia de las
decisiones de inversión corporativa. Mexico DF, México: Pearson Learning.
Trigeorgis, L., y Mason, S. (1987). Valuing Managerial Flexibility, Midland
Corporate Finance Journal. 5(1), 14‑21.
Adserá, X., y Viñolas, P. (2003). Principios de valoración de empresas.
Madrid, España: Ediciones Deusto.
Williams, J. (1938). The theory of investment value. Boston, United States:
Harvard University Press.
Arango, M., y Ramírez, A. (2007). Aversión al riesgo y tasa subjetiva de
descuento: caso colombiano, 1970-2003. Revista de Ingenierías Universidad
de Medellín. 6(10), 93-99.
Baye, M. (2006). Managerial economics and business strategy, 5th ed. New
York, United States: McGraw-Hill.
Cochrane, J. (2005). Asset pricing. Boston, United States: Princeton
University Press.
Dean, J. (1951). Capital Budgeting. New York, United States: Columbia
University Press.
Dufresne, D. (1990). The Distribution of a Perpetuity, with Applications to
Risk Theory and Pension Funding. Scandinavian Actuarial Journal. 1(1), 3979.
Fernández, P. (2008). Valoración de empresas por descuento de flujos: diez
métodos y siete teorías. Obtenido de la base de datos del IESE Business
School.
Fisher, I. (1907). The rate of interest: its nature, determination and relation to
economic phenomena. New York, United States: The Macmillan Company.
Gordon, M., y Shapiro, E. (1956). Capital equipment analysis: the required
rate of profit. Management science 3(1), 102-110.
Greenwood, R. (2010). Calculating free cash flows, Obtenido de la base de
datos de Harvard Business School Publishing.
Hazen, G. (2003). A new perspective on multiple internal rates of returns. The
engineering economist. 48(1), 31-51.
Hillier, F. (1963). The derivation of probabilistic information for the
evaluation of risky investment. Management Science. 9(3), 443-457.
Kruschwitz, L., y Loffler, A. (2006). Disconted cash flow: a theory of the
valuation of firms. New York, United States: John Wiley & Sons, Ltd.
LeRoy, S., y Werner, J. (2010) Principles of financial economics, 9th ed. New
York, United States: Cambridge University Press.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título
_________________________________________________________________________________________________________________________
Preparación de Artículos para la Revista Politécnica Utilizar
Mayúsculas en cada Palabra en el Caso del Título
Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4

1Escuela Politécnica Nacional, Facultad de Ingeniería Mecatrónica, Quito, Ecuador
2Escuela Politécnica del Litoral, Facultad de Ingeniería Industrial, Guayaquil, Ecuador
3,4Universidad de Cuenca, Facultad de Ciencias Exactas, Cuenca, Ecuador
Resumen: Las siguientes instrucciones establecen las pautas para la preparación de artículos para la Revista
Politécnica. Los artículos pueden ser escritos en español o en inglés, pero tendrán un resumen de máximo 250 palabras
en los dos idiomas. Los autores pueden hacer uso de este documento como una plantilla para componer su artículo si
están utilizando Microsoft Word 2013 o superior. Caso contrario, este documento puede ser utilizado como una guía
de instrucciones. El número mínimo de páginas será 6 y el máximo 10. Para el envío de los artículos, los autores
deben seguir las instrucciones colocadas en el sistema de recepción de artículos del sitio web de la Revista Politécnica
(www.revistapolitecnica.epn.edu.ec). En caso de que su artículo sea en inglés colocar el título y el resumen en los
dos idiomas.
Palabras clave: Incluir una lista de 3 a 6 palabras.
Title of Manuscript
Abstract: These instructions give you guidelines for preparing papers for EPN Journal. Papers can be written in
Spanish or English; however, an abstract of maximum 250 words and written in both languages is required. Use this
document as a template to compose your paper if you are using Microsoft Word2013 or later. Otherwise, use this
document as an instruction set. The minimum number of pages will be 6 and the maximum will be 12. For submission
guidelines,
follow
instructions
on
paper
submission
system
from
the
EPN
Journal
website(www.revistapolitecnica.epn.edu.ec).
Keywords: Include a list of 3 to 6 words.
1
1. INTRODUCCIÓN
Este documento es una plantilla para versiones Microsoft
Word 2013 o posteriores. Si está leyendo una versión impresa
de este documento, por favor descargue el archivo electrónico,
revistapolitécnicaformato2015.docx. Por favor, no coloque
numeración ni pie de página en el documento presentado.
Todo artículo debe contener Resumen, Introducción, Marco
Teórico/Metodología, Resultados y Discusión, Conclusiones y
Referencias. Para colocar los Agradecimientos de ser
necesarios, siendo opcional esta sección, por favor ubicarlos
antes de la sección de Referencias. El contenido de estas
secciones se detallará en la sección correspondiente.
Puede
escribir
sobre
las
secciones
de
la
revistapolitécnicaformato2015.docx. o cortar y pegar de otro
documento y, luego usar estilos de marcado.
A continuación se incluye un ejemplo de introducción en
inglés y español. Los mismos que no corresponden a imágenes
o secciones del presente artículo, solo muestran una forma
propuesta de redacción.
El menú desplegable de estilo está a la izquierda de la barra de
herramientas de formato, en la parte superior de la ventana de
Word (por ejemplo, el estilo en este punto del documento es
"Texto"). Resalte una sección que usted quiera designar con
un cierto estilo, y luego seleccione el nombre apropiado en el
menú de estilo. El estilo ajustará los tipos de letra y espaciado
de línea. No cambie los tamaños de fuente o espaciado de
renglones para ajustar el texto a un número limitado de
páginas. Utilice cursiva o negrita para dar énfasis a un texto,
no subrayado.
Ejemplo en Inglés: The interaction between matter and
radiation in nonlinear systems allows multiphotonic responses,
i.e. second and third harmonic generation, Kerr effect and
Four-Wave Mixing (FWM). This technique is based on three
beams acting on a material such that a fourth beam with its
own characteristics is generated because of the laser-matter
interaction. This technique can be used in studies of the system
lifetimes, optical susceptibilities and Raman levels, among
others (García-Golding and Marcano, 1985). The particular
Colocar el correo electrónico del autor de correspondencia.
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4
_______________________________________________________________________________________________________________________________
cases, where the signal of FWM is either degenerate or nondegenerate, have been objects of renewed interest in the very
active fields of nanoscience and nanotechnology (Paz et al.,
2011), where this type of spectroscopy is used to determine the
structure of nanomaterials through their nonlinear optical
responses. These studies are still under development,
promising to open an intense line of investigation, where
models like the one that we propose in the following section
are directly applicable.
Nonlinear optical techniques have been applied for several
years in the study of a wide range of materials that includes
polymers, semiconductors, biological molecules and organic
compounds such as chromophores, among others. The
dynamics of those systems have been successfully described
by the Optical Conventional Bloch equations (OCBE), where
the reservoir (a liquid for instance) influence is taken into
account through the longitudinal and transversal relaxation
times, T1and, T2 respectively. We propose a methodology
based on a stochastic description, where the system-solvent
collisional interaction induces random shifts in the natural
frequency, which transforms the usual parameter ɷo (the
resonance frequency of the two-level system), into a stochastic
variable ξ(t), and the original OCBE into the Optical
Stochastic Bloch Equations (OSBE). Under these
considerations, and after the calculation of the coherence and
the susceptibility of the molecular system, third order optical
responses are analyzed for a generic model of an organic dye
using the FWM technique.
The theoretical study of the optical responses of two-level
molecular systems has been done through many approaches;
however, most of these studies neglect the Permanent Dipole
Moments PDM for simplicity (Ganagopadhyay et al., 1999;
Zhu and Li, 2000). Some authors have demonstrated that the
inclusion of this parameter is highly important in order to
model the optical response of the molecular system (Lavoine,
2007), but they also neglect the solvent presence. In this work,
we include the PDM so as to generalize the methodology
developed by Colmenares et al. (1995) and expanded by
Mastrodomenico et al. (2008) in order to study the PDM effect
on the optical responses, when a two-level system immersed
in a thermal bath is modeled. In order to measure this effect,
we have studied in detail the importance of the Rotating Wave
Approximations RWA, as we move between a strong and a
weak coupling between the molecular system and the
surroundings (Wu and Yang, 2007). In our model, the solvent
is modeled as a relaxation mechanism by way of the
longitudinal and transversal relaxation times and the collisions
within the system, causing a broadening in the upper level.
This work is organized as follows. In section 2, we present the
methodology of our calculus, the development of the OSBE
through the introduction of the stochastic function in the
OCBE, and the perturbative expansion to calculate the third
order coherence, necessary to obtain the macroscopic
polarization and the coupling susceptibility. In section 3, we
present the evaluation of the macroscopic inhomogeneous
polarization in the tensorial representation. Section 4, is
devoted to a graphical analysis of the results obtained for the
nonlinear optical properties as a function of the pump field
detuning for different coupling strengths and the presence or
absence of the permanent dipole moments. Final comments are
presented in section. 5.
Ejemplo en Español: Las técnicas para estudiar los procesos
ópticos se clasifican en términos de diversos criterios. Así,
existen técnicas en el dominio del tiempo o de las frecuencias,
técnicas resonantes o antiresonantes, y procesos multifotónicos que dependen del orden de la respuesta con respecto
a los campos aplicados (Mukamel y Loring, 1986).En general,
las técnicas ópticas difieren entre sí por el tiempo de aplicación
de los campos eléctricos. En un límite, los campos aplicados y
la señal son estacionarios, mientras que en el caso opuesto los
campos aplicados son pulsos muy breves. En principio, los
observables medidos en el dominio del tiempo y de la
frecuencia se pueden relacionar a través de la transformada de
Fourier. Por otra parte, las mediciones ópticas frecuentemente
se llevan a cabo en medios resonantes, donde un campo o la
combinación de las frecuencias de los campos son iguales a la
frecuencia característica del sistema. Tales técnicas resonantes
son sensibles a procesos de relajación en el material,
incluyendo emisión espontánea y además proveen una prueba
directa de autoestados específicos (Gorayeb et al., 1995). Con
relación a la variedad de procesos multi-fotónicos, resaltan: la
generación de segundos y terceros armónicos, la generación de
suma o diferencia de frecuencias, y los procesos de
polarización a tercer orden, principalmente la Mezcla de
Cuatro Ondas (MCO).
A través de las interacciones ópticas no lineales se pueden
estudiar las respuestas ópticas del medio. Propiedades como el
índice de refracción y el coeficiente de absorción son
determinantes en el diseño y fabricación de nuevos materiales
ópticos con características específicas, por lo tanto, las
interacciones ópticas no lineales representan una fuente de
información útil en la ciencia y la tecnología (Lin et al., 2007).
Estas propiedades no lineales en sistemas moleculares con
distintos enfoques de cálculos, han sido objeto de estudio por
distintos autores (Wang et al., 2011). Teóricamente, los
fenómenos no lineales se estudian en un esquema perturbativo
bajo el formalismo de la matriz densidad, la cual obedece la
ecuación de Liouville. Si, adicionalmente, se consideran los
términos de relajación asociados al proceso, entonces se
derivan las Ecuaciones Ópticas de Bloch Convencionales
(EOBC), que son análogas a las ecuaciones magnéticas de
Bloch. A través de las poblaciones y coherencias inherentes a
las EOBC se estudia la dinámica del sistema expuesto a la
radiación de alta intensidad. Para el caso más simple, un
sistema de dos niveles electrónicos, se deducen tres ecuaciones
fundamentales las cuales consideran la frecuencia natural de
Bohr como la frecuencia de transición entre los dos estados
vibracionales. Sin embargo, con estas ecuaciones de carácter
determinista no se puede estudiar la interacción de un sistema
molecular en un baño térmico, el cual se asume que induce una
estocasticidad en el medio. Así, para considerar tales efectos
es preciso modificar las EOBC, en el sentido de incluir dentro
de las mismas los términos que dan cuenta del solvente, con
esto las EOBC se convierten en las ecuaciones de Bloch
ópticas estocásticas (EBOE). Aquí el ensanchamiento entre los
niveles electrónicos es aleatorio de modo que la frecuencia
natural de transición entre los estados se convierte en una
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título
_________________________________________________________________________________________________________________________
función estocástica (Colmenares et al., 1995). Finalmente,
considerando los distintos parámetros experimentales, se
observó que las propiedades ópticas no lineales, son
proporcionales a la concentración de la solución química e
inversamente proporcionales a la varianza de la distribución
lorentziana.
2. MARCO TEÓRICO/METODOLOGÍA
Esta sección debe reflejar el marco referencial que sustente el
contenido del artículo, puede incluir: marco teórico,
metodología, materiales o métodos y/o consideraciones
generales. El título de esta sección puede ajustarse de acuerdo
a las necesidades de cada artículo.
En esta sección se reporta una síntesis organizada, lógica y
pertinente con la investigación. La organicidad y coherencia
de la teoría que valida la propuesta, desde el problema o la
hipótesis hasta los procedimientos metodológicos y,
posteriormente los resultados. De la misma forma, en esta
sección se describen los procedimientos metodológicos a
desarrollar, cuidando que haya plena coincidencia con las
fases que se desprenden de los objetivos de la investigación.
3. RESULTADOS Y DISCUSIÓN
En general, se recomienda que tanto el análisis como la
discusión de resultados se presenten de manera integrada. Es
necesario que los resultados queden clasificados dentro de
arreglos significativos: tablas, cuadros, gráficos, diagramas
figuras, estadísticas, etc., que permitan reflejarla coherencia y
la argumentación de los mismos. Cada representación de datos
debe ir seguida de un texto que explique, interprete, contraste,
amplíe… lo que los datos significan.
autor(es) considera(n)
investigación.
que
han
contribuido
con
la
REFERENCIAS
La lista de referencias debe estar ordenada alfabéticamente
de acuerdo con el apellido del primer autor del artículo. El
agregado et al no debe ir en cursiva. Por favor nótese que todas
las referencias listadas aquí deben estar directamente citadas
en el cuerpo del texto usando (Apellido, año). Las notas al pie
deben evitarse en la medida de lo posible.
El artículo debe contener un mínimo de 6 referencias.
Seguir el formato indicado a continuación de acuerdo al tipo
de referencia a:
Formato básico para referenciar libros:
Apellido, Inicial Nombre. (Año). Título del libro. Ciudad,
País: Editorial.

Libros con un autor:
En las referencias:
King, M. (2000). Wrestling with the angel: A life of Janet Frame. Auckland,
New Zealand: Viking.
Cita en el texto:
(King, 2000) o King (2000) argumenta que ...

Libros con dos autores:
En las referencias:
Los resultados cobran interés y valor cuando son interpretados
a la luz de la teoría de base; presentada en la sección anterior.
En sentido metafórico, los resultados, la teoría y la
interpretación deben dialogar activamente en esta sección.
4. CONCLUSIONES
La sección de conclusiones es requerida. En esta sección
el(los) autor(es) retoma(n) los objetivos del estudio para
establecer y plasmar si se cumplieron o no; con ello responderá
si la incógnita de la investigación fue despejada y, en otro caso,
si fue comprobada la hipótesis de trabajo. También esta parte
se dedica a explicar brevemente qué elementos no anticipados
surgieron de la investigación y si ello constituyó o no una
limitación importante para la consecución de las metas
propuestas.
Finalmente, de ser necesario y de manera opcional, se pueden
incluir las recomendaciones o sugerencias que el(los) autor(es)
argumenta(n) como producto de su experiencia y a la luz de
sus conocimientos profesionales.
AGRADECIMIENTO (OPCIONAL)
En esta sección se recomienda incluir los agradecimientos
formales a todas las personas y/o instituciones que el(los)
Treviño, L. K., y Nelson, K. A. (2007). Managing business ethics: Straight
talk about how to do it right. Hoboken, NJ: Wiley
Cita en el texto:
(Treviño y Nelson, 2007) oTreviño y Nelson (2007)
ilustran…

Libros con dos o más autores:
En las referencias:
Krause, K.-L., Bochner, S., y Duchesne, S. (2006). Educational psychology
for learning and teaching (2nd ed.). South Melbourne, VIC., Australia:
Thomson.
Cita en el texto:
De acuerdo con Mezey et al. (2002) o ... (Mezey et al.,
2002).
Formato básico para referenciar artículos científicos
Apellido, Inicial Nombre. (Año). Título del Artículo.
Título/Iniciales de la Revista. Número de Volumen (Tomo),
páginas
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4
_______________________________________________________________________________________________________________________________

Artículos en revistas:
En las referencias:
Sainaghi, R. (2008). Strategic position and performance of winter
destinations. TourismReview, 63(4), 40-57.
Cita en el texto:
(Sainaghi, 2008) oSainaghi (2008) sugiere ...

Artículos con DOI
En lasreferencias:
Shepherd, R., Barnett, J., Cooper, H., Coyle, A., Moran-Ellis, J., Senior, V.,
& Walton, C. (2007). Towards an understanding of British public attitudes
concerning human cloning. Social Science& Medicine, 65(2), 377-392.
http://dx.doi.org/10.1016/j.socscimed.2007.03.018
Cita en el texto:
Shepherd et al. (2007) o Shepherd et al. (2007) resaltan la...

Artículos sin DOI
En las referencias
Harrison, B., & Papa, R. (2005). The development of an indigenous
knowledge program in a New Zealand Maori-language immersion
school. Anthropology and EducationQuarterly, 36(1), 57-72. Obtenido de la
base de datos AcademicResearch Library
Cita en el texto:
(Harrison y Papa, 2005) o En su investigación, Harrison y
Papa (2005) establecieron...

Artículos en línea
En lasreferencias:
Snell, D., & Hodgetts, D. (n.d.). The psychology of heavy metal communities
and white supremacy. Te KuraKeteAronui, 1. Obtenido de:
http://www.waikato.ac.nz/wfass/tkka. (Mayo, 2015).
Cita en el texto:
(Snell y Hodgetts, n.d.) oSnell y Hodgetts (n.d.) identificaron
"..."
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título
_________________________________________________________________________________________________________________________
APÉNDICEA
PROCEDIMIENTO PARA LA PRESENTACIÓN DEL
ARTÍCULO
Para las pautas de presentación, siga las instrucciones emitidas
por el sistema del sitio web de la revista de la EPN.
La presentación inicial debe tomar en cuenta todas las
indicaciones que se presentan en la plantilla, para de esta
manera tener una buena estimación de la longitud del artículo
a publicarse. Además, de esta manera el esfuerzo necesario
para la presentación final del manuscrito será mínimo.
Como sugerencia, es importante tomar en cuenta que, el primer
autor es el investigador que hizo la mayor parte del trabajo,
mientras que el último autor suele ser el profesor quien es el
líder intelectual y, a menudo edita y presenta el borrador final
del documento.
La Revista Politécnica pondrá en marcha un sistema de
transferencia electrónica de derechos de autor en su momento.
Por favor, "no" enviar formularios de derecho de autor por
correo o fax. A continuación se detallan las consideraciones
que se deben tener en cuenta para la presentación final del
artículo.

columnas. Las leyendas de las figuras deben estar centradas
debajo de las figuras, los títulos de las tablas deben estar
centrados sobre ellas. Evite colocar figuras y tablas antes de su
primera mención en el texto. Para la mención de figuras, tablas
o ecuaciones utilice las palabras completas con la primera letra
en mayúscula, por ejemplo "Figura 1".
Coloque las unidades entre paréntesis. No etiquete los ejes sólo
con unidades. Por ejemplo, escriba "Magnetización (A/m)" o
"Magnetización (Am-1)", no sólo "Magnetización A/m." No
etiquete los ejes con una relación de cantidades y unidades. Por
ejemplo, escriba "Temperatura (K)", no "Temperatura K".
Los multiplicadores pueden ser especialmente confusos.
Escriba "Magnetización (kA/m)" o "Magnetización
(103A/m)". No escriba "Magnetización (A/m) x 1000" porque
el lector no sabrá si la etiqueta del eje de arriba significa 16000
A/m o 0,016 A/m. Las etiquetas de las figuras deben ser
legibles, con un valor de 8 y sin espacio de separación con la
figura.
Figuras, tablas y márgenes
Todas las figuras deben ser incorporadas en el documento. Al
incluir la imagen, asegúrese de insertar la actual en lugar de un
enlace a su equipo local. Los archivos de: figuras, dibujos,
fotografías, etc., deberán enviarse en formato bmp o jpg, con
al menos 1200 puntos (resolución) en uno de sus ejes, con
leyendas legibles y de tamaño adecuado. El artículo debe
contener entre tablas y figuras un máximo de 10.
Las etiquetas de los ejes de las figuras son a menudo una fuente
de confusión. Utilice las palabras en lugar de símbolos. Por
ejemplo, escriba la cantidad "Magnetización," o
"Magnetización M" no sólo "M".
99.9
Los autores deben trabajar activamente con los márgenes
solicitados. Los documentos de la revista serán marcados con
los datos del registro de la revista y paginados para su inclusión
en la edición final. Si la sangría de los márgenes en su
manuscrito no es correcta, se le pedirá que lo vuelva a
presentar y esto, podría retrasar la preparación final durante el
proceso de edición.
Por favor, no modificar los márgenes de esta plantilla. Si está
creando un documento por su cuenta, considere los márgenes
que se enumeran en la Tabla 1. Todas las medidas están en
centímetros.
98
Weibull Breakdown Probability (%)
Figura 2. Robots Móviles Pioneer y su Entorno Experimental. Formato de
doble columna.
90
70
50
30
20
10
Tabla 1. Márgenes de página
5
2
1
0.5
0.2

0.1
100
101
Página
Superior
Inferior
Primera
Resto
2,5
2,5
2,5
2,5
Izquierda/
Derecha
1,5
1,5
Ecuaciones
102
Breakdown Voltage (kV)
Figura 1. Distribución Weibull de 60 Hz voltajes de ruptura11 cables α =
45,9 kV picoβ = 5,08.Intervalo de Confidencia 95%
Las figuras y tablas deben estar en la parte superior e inferior
de las columnas. Evite colocarlas en medio de ellas. Las
figuras y tablas grandes pueden extenderse a lo largo de ambas
Si está usando MSWord, sugerimos utilizar el Editor de
ecuaciones de Microsoft o el MathTypeadd-on para las
ecuaciones en su documento (Insertar/Objeto/Crear
Nuevo/Microsoft Ecuación o Ecuación MathType). La opción
"flotar sobre el texto" no se debe elegir.’
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4
_______________________________________________________________________________________________________________________________
Enumere las ecuaciones consecutivamente con los números de
la ecuación en paréntesis contra el margen derecho, como en
(1). Utilice el editor de ecuaciones para crear la ecuación y esta
debe estar localizada en el margen derecho, como se muestra
en el ejemplo siguiente:

r2
0
F (r ,  ) dr d  [ r2 / (2 0 )] (1)
Asegúrese de que los símbolos en su ecuación han sido
definidos antes de que aparezcan en la ecuación o
inmediatamente después. Ponga en cursiva los símbolos (T
podría referirse a la temperatura, pero T es la unidad tesla).
Para referirse a la ecuación se escribe por ejemplo “Ecuación
(1) "

Unidades
Utilice el SI como unidades primarias. Otras unidades pueden
ser utilizadas como unidades secundarias (en paréntesis). Por
ejemplo, escriba "15 Gb/cm2 (100 Gb/in2)". Evite combinar las
unidades del SI y CGS, como la corriente en amperios y el
campo magnético en oerstedios. Esto a menudo lleva a
confusión
porque
las
ecuaciones
no
cuadran
dimensionalmente. Si tiene que usar unidades mixtas, aclare
las unidades para cada cantidad en una ecuación.
Por ejemplo, en el SI la unidad de fuerza de campo magnético
Hes A/m. Sin embargo, si desea utilizar unidades de T, o bien
se refiere a la densidad de flujo magnético B o la fuerza del
campo magnético simbolizadas como µ0H. Use un punto en el
centro para separar las unidades compuestas, por ejemplo,
“A·m2.”

Abreviaturas y Siglas
Defina las abreviaciones y acrónimos la primera vez que se
utilizan en el texto, incluso después de que ya han sido
definidos en el resumen. No utilice abreviaturas en el título a
menos que sea inevitable.

Otras recomendaciones

Todos los artículos deberán ser enviados en formato
Word.

Para expresar valores decimales se usarán comas, por
ejemplo 3,45. Use un cero antes del decimal.

Se incluirá un espacio entre números para indicar los
valores de miles, por ejemplo 463 690.

Utilice guión los modificadores complejos (Por
ejemplo: campo-cero-refrescando la magnetización).
Evite el uso de los gerundios.

Utilice notación científica para expresar números
con más de 3 cifras hacia la derecha o izquierda, es
decir, mayores a 2,50E+05 o menores a 4,8E-03
Revista Politécnica - Marzo 2016, Vol. 37, No. 2
Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título
_________________________________________________________________________________________________________________________
INFORMACIÓN ADICIONAL
Fecha Límite de Recepción de Artículos: Diciembre 2015
Fecha Límite de Aceptación de Originales: Enero 2016
-
Sistema de Arbitraje:
Todos los artículos cumple con una revisión por pares, la cual
consiste en:
 Selección de dos o tres árbitros, actualmente la Revista
Politécnica cuenta con revisores internos, externos e
internacionales,
quienes
envían
al
editor
su evaluación del artículo y sus sugerencias acerca de
cómo mejorarlo.
 El editor reúne los comentarios y los envía al autor
 Con base en los comentarios de los árbitros, el editor
decide si se publica el manuscrito.
 Cuando un artículo recibe al mismo tiempo
evaluaciones tanto muy positivas como muy
negativas, para romper un empate, el editor puede
solicitar evaluaciones adicionales, obviamente a otros
árbitros.
Otra manera de desempate consiste en que los editores
soliciten a los autores que respondan a
las críticas de los
árbitros, a fin de refutar una mala evaluación. En esos
casos el editor generalmente solicita al árbitro que comente
la
respuesta del autor.
Toda la evaluación se realiza en un proceso ciego, es
decir los autores no conocen quienes son sus
revisores, ni los
revisores conocen los autores del
artículo.

Nota de copyright
Los autores que publican en esta revista están de
acuerdo con los siguientes términos:
- Los autores conservan los derechos de autor y
garantizan a la revista el derecho de ser la
primera publicación del trabajo al igual que
licenciado bajo una Creative Commons
Attribution License que permite a otros
compartir el trabajo con un reconocimiento de la
autoría del trabajo y la publicación inicial en esta
revista.
-
Los autores pueden establecer por separado
acuerdos adicionales para la distribución no
exclusiva de la versión de la obra publicada en la
revista (por ejemplo, situarlo en un repositorio
institucional o publicarlo en un libro), con un
reconocimiento de su publicación inicial en esta
revista.
-
Se permite y se anima a los autores a difundir sus
trabajos electrónicamente (por ejemplo, en
repositorios institucionales o en su propio sitio
web) antes y durante el proceso de envío, ya que
puede dar lugar a intercambios productivos, así
como a una citación más temprana y mayor de
los trabajos publicados (Véase The Effect of
Open Access) (en inglés).
Instructivo para publicar un Artículo
1.
2.
3.
4.
Solicitar usuario y contraseña para acceder al portal
web de la Revista Politécnica al correo
[email protected]
Ingresar al portal web e iniciar el proceso de envío
Comenzar el envío
Colocar requisitos de envío

Lista de comprobación de preparación de envíos
Como parte del proceso de envío, se les requiere a los
autores que indiquen que su envío cumpla con todos
los siguientes elementos, y que acepten que envíos
que no cumplan con estas indicaciones pueden ser
devueltos al autor.
-
-
todas las ilustraciones, figuras y tablas están
dentro del texto en el sitio que les corresponde y
no al final del todo.
El texto cumple con los requisitos bibliográficos
y de estilo indicados en las Normas para
autoras/es, que se pueden encontrar en "Acerca
de la Revista".

Declaración de privacidad
-
5.
6.
7.
8.
Los nombres y direcciones de correo-e
introducidos en esta revista se usarán
exclusivamente para los fines declarados por esta
revista y no estarán disponibles para ningún otro
propósito u otra persona.
Subir el envío
Introducir metadatos
Subir ficheros adicionales
Confirmar el envío
La petición no ha sido publicada previamente, ni
se ha presentado a otra revista (o se ha
proporcionado una explicación en Comentarios
al Editor).
El fichero enviado está en formato OpenOffice,
Microsoft Word, RTF, o WordPerfect.
Se han añadido direcciones web para las
referencias donde ha sido posible.
El texto tiene interlineado simple; el tamaño de
fuente es 10 puntos; se usa cursiva en vez de
subrayado (exceptuando las direcciones URL); y
Revista Politécnica - Marzo 2016, Vol. 37, No. 2

Documentos relacionados