revista tomo 2 - Revista Polit? - Revista Politécnica
Transcripción
revista tomo 2 - Revista Polit? - Revista Politécnica
Volumen 37 No 2 Marzo 2016 Volumen 37 No 2 Marzo 2016 La Revista Politécnica es una publicación semestral de la Escuela Politécnica Nacional que pone al alcance de los sectores académico y productivo los desarrollos científicos y tecnológicos en las áreas de las ingenierías y ciencias. Está incluida en: Latindex, catálogo y directorio: Sistema Regional de información en línea para Revistas Científicas de América Latina, el Caribe, España y Portugal Google Scholar: Buscador de Google enfocado en el el mundo académico que se especializa en literatura científica-académica Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los conceptos expresados son de responsabilidad exclusiva de sus autores. Contactar con la Coordinación de Edición: [email protected] [email protected] Teléfono: (+593) 3976000 ext. 5218 Guía para autores: http://revistapolitecnica.epn.edu.ec/repo_files/autor_manual.pdf COORDINADORA DE EDICIÓN Ing. Iliana Carrera COMISIÓN DE APOYO EDITORIAL Ing. Andrés Proaño Srta. Dayana Gavilanes Sr. Luis Estrada Srta. Sandra Rojas Sr. Daniel Cabrera REVISTA POLITÉCNICA Volumen 37, Número 2 Marzo 2016 CONSEJO EDITORIAL Enio Da Silveira, Ph.D. Universidad Católica de Río, Brasil. Carlos Smith, Ph.D. University of South Florida, Estados Unidos Gyimah-Brempong Kwabena, Ph.D. University of South Florida, Estados Unidos ESCUELA POLITÉCNICA NACIONAL Rector Jaime Calderón, MBA Vicerrector de Investigación y Proyección Social Alberto Celi, Ph.D. Vicerrector de Docencia Tarquino Sánchez, MBA Editor Oscar Camacho, Ph.D. Co Editor Rafael Uribe, Ph.D. Raymundo Forradelas, Ph.D. Universidad Nacional del Cuyo, Argentina Ricardo Carelli, Ph.D. Universidad Nacional de San Juan, Argentina. Vanderlei Bagnato, Ph.D. Universidad de Sao Paulo, Brasil. Rui Pedro Pinto de Carvalho, Ph.D. University of Coimbra, Portugal. Oscar Ortiz, Ph.D. Universidad Nacional de San Juan, Argentina Gustavo Scaglia, Ph.D. Universidad Nacional de San Juan, Argentina Chen Ning, Ph.D. Universidad de Mineralogía y Tecnología de China, China. Alex Ruiz Torres, Ph.D. Universidad de Puerto Rico, Puerto Rico. Lizandro Solano, Ph.D. Universidad de Cuenca, Ecuador Romel Montufar, Ph.D. Pontificia Universidad Católica, Ecuador Marcos Villacís, Ph.D. Escuela Politécnica Nacional, Ecuador Andrés Rosales, Ph.D. Escuela Politécnica Nacional, Ecuador Danilo Chávez, Ph.D. Escuela Politécnica Nacional, Ecuador Oscar Camacho, Ph.D. Universidad de Los Andes, Venezuela Vicenzo Vespri, Ph.D. Università degli studi di Firenze, Italia Carlos Ávila, Ph.D. Escuela Politécnica Nacional, Ecuador COMITÉ EDITORIAL Andrés Rosales, Ph.D. Investigador Escuela Politécnica Nacional José Luis Paz, Ph.D. Prometeo Escuela Politécnica Nacional, Ecuador ESCUELA POLITÉCNICA NACIONAL Campus "José Rubén Orellana" Ladrón de Guevara E11 - 253 Quito - Ecuador Ernesto Jiménez, Ph.D. Prometeo Escuela Politécnica Nacional, Ecuador Florinella Muñoz, Ph.D. Investigadora Escuela Politécnica Nacional CONTENIDO 1 Pizarro Monica; Sánchez Tereza; Ceballos Hernan; Morante Nelson; Dufour Dominique Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria 7 Genoy-Puerto Alexander; Hernández Martinez Noelia Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha 13 Loyo Carlos; Arroyo Carla; Cadena Francisco; Aldás Miguel Materiales Compuestos de Resina Poliéster y la Fracción no Metálica de Tarjetas de Circuitos Impresos 19 Erazo Clara; de la Torre Ernesto; Endara Diana Recuperación de Aluminio a partir de Empaques tipo blister usados por la Industria Farmacéutica 27 Vallejo Fidel; Mera Luis; Lascano Luis Diseño de una Planta Piloto para la Obtención de Aluminato de Sodio Mediante el Método de Precipitación Controlada 36 Inca Fernando; Salguero Yadira; Aldás Miguel Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto 46 Inca Fernando; Quiroz Francisco; Aldás Miguel Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados 53 Segura Luis. J.; Loza Matovelle David; Guerrero Víctor H.; Reza Dabirian Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater 59 Méndez Cuello Andy; Cely Vélez Mauricio; Monar Monar Willan Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos 69 Reina Salvatore; Ayabaca César; Tipanluisa Luis Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III 75 Paredes Cristian; Guarnizo Jorge; Guerrero Víctor H.; Campaña Orlando Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo 84 Quishpe Santiago; Rivero Dulce; Rivas, Francklin Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios 93 Cueva Samanta; Torres Rommel; Rodríguez Germania; Rojas Carolina; Marbán Óscar Producción de Cursos Educativos Abiertos con Herramientas Sociales 100 Díaz Juan Pablo; Romaní Javier An approximation to Household Overcrowding: Evidence from Ecuador 108 Díaz Juan Pablo The Bad Business of Agriculture A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador Artículos del III Congreso Internacional de Economía "La Economía Popular y Solidaria, del Buen Vivir y la Economía Matemática" 112 Argothy Anderson Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria 126 Carrillo Maldonado Paúl A. Análisis del beneficio marginal del gasto público y sus servicios 138 Galvis Andrés; Galindo Edwin El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria _________________________________________________________________________________________________________________________ Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2 1 Centro Internacional de Agricultura Tropical (CIAT),Apdo Aereo6713, Cali, Colombia 2 Centre de Coopération Internationaleen Recherche Agronomique pour le Developpement (CIRAD) Resumen: La yuca ¨Waxy¨, variedad AM 206-5, libre de amilosa, fue reportada en 2006 en el proyecto de mejoramiento de yuca del CIAT, que busca desarrollar genotipos con características especiales en el almidón presente en sus raíces. Los almidones libre de amilosa tienen diferentes propiedades fisicoquímicas en comparación con los que contienen amilosa, y por lo tanto se utilizan para la fabricación de diferentes productos en la industria alimentaria. El objetivo de este trabajo fue clasificar genotipos de yuca mediante el contenido de amilosa (alto y libre) y tamaño de granulo del almidón (normales a pequeños). Se evaluaron 880 genotipos descendientes del cruce de la variedad de yuca AM 206-5 (libre de amilosa) y la variedad 5G 160-13 (granulo pequeño). El contenido de materia seca osciló entre 7 % y 47 % con un promedio de 35 % y el contenido de amilosa vario entre 0 % y 42 %. Se obtuvieron 6 genotipos doble mutante con las dos características combinadas (waxy y granulo pequeño). De los 880 genotipos evaluados se obtuvieron 145 con las características waxy y 110 con tamaño de granulo pequeño. Los almidones se analizaron en términos de sus propiedades morfológicas, funcionales y fisicoquímicas: tamaño y forma del granulo, claridez, comportamiento de los geles a través del calentamiento, enfriamiento por (RVA) y contenido de amilosa. El almidón waxy presentó la mayor temperatura de gelatinización, y mayor claridez, este tipo de almidones son menos sensibles a la retrogradación lo que los hace atractivos para la industria de alimentos congelados y refrigerados ya que su vida útil será más larga, el almidón de 5G 160-13 presentó menor claridez, y por su tamaño de granulo son más fáciles de hidrolizar para la obtención de etanol esto sería de gran interés para la industria de biocombustibles y edulcorantes. Palabras clave: Almidón, almidón xaxy, contenido de amilosa, tamaño de granulo. Diversification of Cassava Starch and its Possible Uses in Food Industry Abstract: The waxy cassava variety AM 206-5, free amylose, was reported in 2006 in the cassava- breeding project at CIAT, which seeks to develop genotypes with special features in the starch in its roots. The free amylose starches having different physicochemical properties compared to those containing amylose, and therefore are used for manufacturing different products in the food industry. The aim of this study was to classify cassava genotypes by amylose (high and free) and starch granule size (small and normal). 880 offspring genotypes from crossing the variety of AM 206-5 (free amylose) and cassava variety 5G 160-13 (small granules) were evaluated. The dry matter content ranged between 7 % and 47 % with an average of 37 % and various amylose content from 0 % to 42 %. were obtained 6 double mutant genotypes with the two combined features (waxy and small granule). From 880 genotypes were obtained 145 with features waxy and 110 with small granule size. Starches were analyzed in terms of their morphological, functional and physicochemical properties: size and shape of granule, claridez, solubility and swelling behavior of the gels through heating, cooling (RVA) and amylose. The waxy starch has the highest gelatinization temperature, and greater claridez, such starches are less susceptible to retrogradation which makes them attractive to the industry frozen and refrigerated foods since its lifetime will be longer, starch 5G 160-13 showed lower claridez, and granule size are easier to hydrolyze to obtain ethanol this would be of great interest to the biofuels industry and sweeteners. Keywords: Starch, waxy starch, content of amylose, granule size. INTRODUCCIÓN 1 Las raíces de yuca (Manihot esculenta Crantz) son un producto agrícola de gran aceptación y de importancia socioeconómica, por ser uno de los componentes principales de la canasta familiar en algunos países; debido a que ha contribuido significativamente en las industrias procesadoras de alimentos como producto primario o secundario para consumo humano y animal. (Rosses, 2008). La planta de [email protected] Revista Politécnica - Marzo 2016, Vol. 37, No. 2 1 2 Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2 _______________________________________________________________________________________________________________________________ yuca puede crecer en una variada gama de condiciones tropicales: en los trópicos húmedos y cálidos de tierras bajas; en los trópicos de altitud media y en los subtrópicos con inviernos fríos y lluvias de verano. Aunque la yuca prospera en suelos fértiles, su ventaja comparativa con otros cultivos de alta rentabilidad, es su capacidad de crecer en suelos ácidos, de escasa fertilidad, con precipitaciones esporádicas o largos periodos de sequía. Sin embargo, no tolera encharcamientos ni condiciones salinas de suelo (Sánchez et al., 2007). Las raíces de esta planta son una de las fuentes más importantes de almidón en los ambientes tropicales; el alto contenido de almidón y su composición, que presenta mayor proporción de amilosa, en comparación con otras fuentes de almidón, hace de la yuca un importante cultivo industrial, además es un producto alimenticio altamente energético por su alto contenido de calorías (Rickard et al., 1991). El almidón es fácilmente extraíble de las raíces, ya que contienen bajos niveles de proteínas y grasas, y se usa principalmente en estado nativo, aunque también se usa en forma modificada, con diferentes tratamientos para mejorar sus propiedades físicas o químicas. (Sriroth et al., 1999). Los gránulos de almidón de origen natural independientemente de la fuente, planta ó tejido, contiene dos polisacáridos principales, la amilosa y la amilopectina, ambos son polímeros de glucosa (Bertoft, 2004). La amilosa, es una molécula esencialmente lineal, y la amilopectina, una molécula altamente ramificada. Las funcionalidades del almidón como estabilizadores y las propiedades físicas y viscoelasticas van a depender de la estructura y proporción de la amilosa y amilopectina en el almidón (Charles et al., 2005). Los almidones se utilizan como materia prima principal o en forma de aditivos. Estos se han empleado en diferentes tipos de alimentos procesados como salsas, sopas, rellenos de fruta, productos a base de crema y productos congelados, sin embargo, cuando estos se congelan, la formación de cristales de hielo dentro de la matriz alimentaria causa estrés físico a los productos y al descongelar el derretimiento de estos cristales de hielo conducen a la pérdida de humedad y el ablandamiento en la textura de estos, afectando la calidad de los alimentos, este proceso se denomina retrogradación y se acelera por congelación y descongelación (Sae-Kang y Suphantharika, 2006). Los almidones waxy debido a sus características morfológicas especiales son menos sensibles a la retrogradación en comparación con un almidón normal, lo cual los hace útiles para la industria de mermeladas, compotas, helados y productos congelados (Eliasson y Gudmundsson, 1996). Mientras que los almidones de granulo pequeño son más fáciles de hidrolizar lo que los hace aptos para la industria de etanol y edulcorantes. En el CIAT se ha implementado diversas estrategias para desarrollar clones de alto valor, aprovechando las nuevas oportunidades que se han presentado para la yuca, mediante la globalización de muchos países tropicales (Ceballos et al., 2004). La meta es desarrollar no sólo los clones con productividad alta y estable, sino también, lograr obtener raíces con características de mayor adaptación a las necesidades de las diferentes industrias. En la industria del almidón hay diferentes formas de aprovechamiento, por lo tanto es necesario desarrollar e identificar clones de yuca con novedosas propiedades en el almidón, motivo por el cual se ha introducido gradualmente en el proyecto de mejoramiento de yuca características intrínsecas en términos de calidad de almidón (Ceballos et al., 2006). Además, la identificación de aquellos genotipos a partir de la expresión de variaciones de calidad del almidón, requiere la realización de pruebas especiales. Una de las estrategias del programa de mejoramiento de yuca es diversificar el uso de los almidones, modificando propiedades funcionales por medio del mejoramiento convencional y otras técnicas. Recientemente se han reportado dos nuevos almidones de yuca mutantes con contenido de amilosa extremos 0 y 31 % Estos almidones son drásticamente diferentes de almidón de yuca normal, cuyo contenido de amilosa oscila entre 15 y 25 % (Sabaté et al., 2011). La planta libre de amilosa fue obtenida de autopolinizaciones en busca de rasgos recesivos útiles, dando origen a plantas con bajo contenido de amilosa (Ceballos et al., 2006). También se obtuvo un genotipo de granulo pequeño, el cual fue el resultado de la irradiación de semillas con rayos γ y de autopolinización para dar origen a una planta donde las características morfológicas del granulo de almidón eran anormales, siendo este de un menor tamaño en comparación con los de uno normal (Ceballos et al., 2007). Es de gran importancia investigar en este tipo de características y propiedades funcionales de los almidones ya que hoy en día existen muchos mercados con aplicaciones y funcionalidades diversas en las que tienen aplicación los diferentes tipos de almidones. El objetivo de este estudio fue clasificar y caracterizar 880 genotipos por contenido de materia seca (MS), contenido de amilosa, tamaño de granulo y comportamiento de los geles para ver sus posibles aplicaciones en la industria de alimentos refrigerados, congelados o en la industria de biocombustibles entre otras. 2. METODOLOGÍA 2.1 Materiales Se seleccionaron 880 genotipos provenientes de 138 familias de los cruces entre yuca AM 206-5 (libre de amilosa) y 5G 160-13 (granulo pequeño). Sembrados y cosechados en el Centro Internacional de Agricultura Tropical (CIAT) ubicado a 1100 m.s.n.m en Cali, Colombia (03° 25′N; 76° 35′W). Cada planta se cosechó a una edad fisiológica de 10 a 11 meses, de las cuales se emplearon 3 raíces, se tomó una yuca para sacar una rodaja del centro de esta para evaluar el tamaño de granulo por medio de un cuadrante por microscopia de luz, el resto de las raíces fueron trozados en un procesador de alimentos PA-7SE ESSEN serie 000120 y se sacaron muestras para los diferentes análisis. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria _________________________________________________________________________________________________________________________ 2.2 Extracción de almidón. 2.7 Claridez de la pasta La extracción de almidón se realizó según procedimiento descrito por Ceballos et al., 2007 en donde las raíces frescas sin pericarpio se cortaron en trozos para la extracción del almidón, se adiciono 1 litro de agua a los trozos en una licuadora (Oster modelo 4655-294VZ, Venezuela) y se homogenizó aproximadamente por 1 minuto la solución obtenida fue filtrada a través de un tamiz de 100 µm. El almidón se dejó decantar y fue secado en horno de convección forzada a 40 °C por 2 días (Thelco oven, model 28, Precision Scientific Subsidiary of GCA Corp., Chicago, IL). La claridez de la pasta se determinó empleando una dispersión acuosa al 1 % de almidón en base seca con un volumen final de 20 ml en el cual se hierve a 97 °C (1.000 msnm) y se agita con vortex a fondo cada 5 minutos durante 30 min. Se deja enfriar el gel a temperatura ambiente y se lee en un espectrofotómetro UV – 2201 en trasmitancia a 650 nm, el valor reportado en trasmitancia equivale al % de claridez de la pasta, pastas de almidones que tengan valores menores de 40 % se consideran opacas o turbias y pastas de almidones que tengan valores de trasmitancia mayores de 40 % se consideran claras o transparentes (Craig et al., 1989). 2.3 Apariencia microscópica y tamaño de gránulos La caracterización de la forma de los gránulos de almidón, se realizó, colocando un poco de almidón seco en un porta objetos; se empleó la técnica de tinción de almidones con una solución de yodo/yoduro de potasio al 0,2 %, se cubrió con cubre objetos, para visualizar el tamaño de los gránulos por medio de microscopia óptica, en el microscopio (Wild leitz GMBH tipo 020-507,010 Hecho en Portugal), con magnificación, 10x y 20x. 2.4 Análisis de materia seca 3. RESULTADOS Y DISCUSIÓN 3.1 Apariencia microscópica y tamaño de granulo En la Figura 1 se presenta una distribución de los 880 genotipos evaluados 132 presentaron características de almidón waxy con tamaño de granulo normal, 88 son almidón con tamaño de granulo pequeño y con contenido de amilosa, 6 genotipos son almidones de granulo pequeño pero con características waxy y 654 son almidones con contenido de amilosa y con tamaño de granulo normal. 3.2 Análisis de materia seca Se determinó MS de acuerdo al método 925.09 de la AOAC (1995), utilizando aproximadamente 80 g de pulpa fresca y 10 g de almidón, mediante secado a 105 °C por 24 horas. El porcentaje de MS se calcula mediante la ecuación 1. 2.5 Análisis de contenido de amilosa En la Figura 2 se presenta la distribución de frecuencia para el contenido de materia seca evaluada en los 880 genotipos, obteniendo que el contenido de materia seca, oscilo entre 748 % con media de 35 %. 3.3 Análisis de contenido de amilosa El contenido de amilosa de las muestras de almidón fue determinado por el método colorimétrico (Determinación de la tenuer en amylose; ISO 6647, 1987) en un espectrofotómetro UV – 2201.El principio se basa en la dispersión de los gránulos de almidón con etanol y posterior gelatinización con NaOH. A una alícuota acidificada se agrega solución de yodo para formar un complejo de color azul, la intensidad del color está relacionado con el contenido de amilosa el cual es cuantificado espectrofotométricamente, comparando los resultados con una nueva curva estándar obtenida utilizando amilosa y amilopectina purificada extraída del tubérculo papa (Marca sigma A0512). 2.6 Propiedades de la pasta Los perfiles de viscosidad se obtuvieron empleando un RVA (Rapid Visco Analizer) modelo RVA-4 series (Newport Scientific, Australia). El almidón se dispersó en agua destilada en una suspensión al 5 % y al 10 % para almidón de granulo pequeño. La viscosidad se registró utilizando el perfil de temperatura que inicia a 50 °C durante 1 min, luego se calentó la suspensión, a una tasa de calentamiento de 6°C/min y se incrementó la temperatura de 50 a 90 °C, manteniendo la temperatura a 90 °C durante 5 min, y después se enfrió a una tasa de 6 °C/min hasta llegar a 50 °C sosteniendo la temperatura a 50 °C con agitación continua de 160 rpm. Se realizó según procedimiento descrito en T. Sánchez et al., 2010. En la Figura 3 se presenta la distribución de frecuencia del contenido de amilosa, en los genotipos evaluados en este estudio. El contenido de amilosa estuvo en el rango de 0-42 % con un promedio de 17 %. En general los genotipos de granulo pequeño tuvieron un contenido de amilosa mas alto entre 18 a 42 % comparado con los otros genotipos y se logró verificar que genotipos obtenidos por doble mutación (waxy con granulo pequeño) son libres de amilosa. , es decir el 77 % de los genotipos evaluados presentaron un contenido de amilosa entre 15 a 20 %, lo que se podría considerar como genotipos de almidón nativo con contenidos de amilosa normales. 3.4 Propiedades de la pasta Mediante un viscoamilograma, se encontró que existen diferencias notorias, en los perfiles de viscosidad entre almidones provenientes de diferentes fuentes de yuca. Esto se debe a las características fisicoquímicas, morfológicas y funcionales de los almidones que analizamos en este estudio. Se encontraron diferentes comportamientos de los geles de almidón, como se muestra en la figura 4, donde el almidón de AM 206-5 (libre de amilosa) tiene una viscosidad máxima mayor y es menos sensible a la retrogradación, su temperatura de empastamiento es mayor en comparación con MCOL 1505 (almidón común) y AM 1290 (almidón doble Revista Politécnica – Marzo 2016, Vol. 37, No. 2 3 4 Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2 _______________________________________________________________________________________________________________________________ mutante). Donde el almidón de MCOL 1505 tiene mayor viscosidad comparado con la AM 1290 (almidón doble mutante) y la 5G160-13 (almidón de granulo pequeño) pero es más sensible a la retrogradación y 5G160-13 (almidón de granulo pequeño) son los que tienen menor viscosidad máxima, y el AM 1290 tienen una temperatura de empastamiento menor en comparación con los demás y tiene un comportamiento muy similar al de AM 206-5. Este comportamiento de los almidones de granulo pequeño y waxy obtenidos de diferentes fuentes, también tuvo las mismas similitudes en los estudios realizados por S. V. Gomand et al 2009 y por Lindeboom et al 2004. En la Figura 5 Se observa que la viscosidad máxima de los almidones de granulo pequeño durante el calentamiento se incrementa cuando hay una disminución en el contenido de amilosa. Este comportamiento fue similar en el estudio realizado en almidones de granulo pequeño de otra fuente por Lloyd et al, 1996. De acuerdo a la Figura 6, podemos observar que a mayor concentración de la suspensión es menor la temperatura de empastamiento, su viscosidad máxima aumenta con la concentración y al hacer la comparación de 5 % y 10 % estos almidones tienen un comportamiento muy similar al de un almidón libre de amilosa o waxy. Similar comportamiento se obtuvo en el estudio realizado por Ceballos et al, 2008. 3.5 Claridez de la pasta. En la Figura 7 se ve una clara diferencia entre los diferentes geles de cada uno de los genotipos evaluados en el estudio donde el gel del almidón waxy es más traslucido, mientras que el gel del almidón de granulo pequeño es opaco y turbio, los geles de almidón normal y doble mutante están en un rango intermedio no son transparentes pero tampoco son opacos. Geles por encima de 40 % serán opacos y turbios y geles por debajo de 40 % serán claros y traslucidos. 4. CONCLUSIONES Los análisis fisicoquímicos realizados en este estudio comprueban que de los 880 genotipos evaluados, 132 genotipos tienen características waxy, 88 genotipos tienen almidón de granulo pequeño y 6 genotipos tienen características doble mutante. Debido a las diferentes cualidades fisicoquímicas, morfológicas y funcionales estos almidones tienen diferentes funcionalidades en la industria. Los almidones waxy tienen aplicaciones en la industria de alimentos congelados y refrigerados, mientras que los almidones de granulo pequeño tienen aplicación para la obtención de etanol, bioplasticos y edulcorantes. Estos resultados permiten seguir realizando investigación en torno al mejoramiento genético y obtención de nuevos genotipos para incrementar la diversificación en términos de calidad de almidón, ya que por ejemplo los 6 genotipos encontrados con las características de doble mutante se pueden usar como progenitores en cruzamientos con miras a obtener nuevos genotipos que permitan maximizar el banco de germoplasma de yuca con características y propiedades físico químicas especiales en los almidones y lograr a futuro suplir la demanda industrial por almidones de tipo nativo con alto valor agregado. REFERENCIAS *Association of Official Analytical Chemists. Official Methods 925.09: Moisture: Official Methods of Analysis of AOAC International, 1995. BERTOFT, E. (2004). Starch in food structure, function and applications. Analysing starch structure. Woodhead Publishing Limited. Cambridge, England. 597 p. ISBN 1 85573 731 0 Ceballos, H., Iglesias, C. A., Perez, J. C., Dixon, A. G. O. (2004). Cassava breeding: opportunities and challenges. Plant Mol. Biolo. 56, pp 503-515. Ceballos, H., Sanchez, T., Morante, N., M. Fregene, M., Dufour, D., Smith, A. M., Denyer, K., Perez, J. C., Calle, F., Mestres, C. (2006 Jun). Discovery of an Amylose-free Starch Mutant in cassava (Manihot eculenta Crantz). J. Agric. Food. 2007, 55, pp7469-7476. Ceballos, H., Fregene, M., Lentini, Z., Sanchez, T., Puentes, Y., Perez, J. C., Rosero, A., Tofiño, A. (2006). Development and identification of highvalue Cassava clones. Acta hortic. 703, 63-70. Ceballos, H., Sanchez, T., Denyer, K., Tofiño, A., Rosero, E., Dufour, D., Smith, A., Morante, N., Perez, J.C., Fahy, B. (2007 Jul). Induction and identification of a small-granule, High-amylose mutant in Cassava (Manihot esculenta Crantz). J.Agric. Food Chem.2007, 56 pp 7215-7222. Charles, A. L., Chang, Y. H., Ko, W. C., Sriroth, K., Huang, T.C. (2005 Dic). Influence of amilopectine structure and amylose content on the gelling properties of five cultivars of cassava starches. J. Agric. Food Chem. 2005, 53, 2717-2725. Craig, S. A. S., Maningat, C. C., Seib, P. A., Hoseney. R. C. (1989). Starch paste clarity. Cereal chem, 66 (3), pp 173-182. Available: http://www.aaccnet.org/publications/cc/backissues/1989/Documents/66_173. pdf Eliasson, A.C. & Gudmundsson, M. (1996). Starch: Physiochemical and functional aspects. In A.-C. Eliasson (Ed.), Carbohydrates in food (pp. 431– 504). New York: Marcel Dekker. Gomand, S.V., Lamberts, L., Visser, R.G.F., Delcour, J.A. (2009, Nov). Physicochemical properties of potato and cassava starches and their mutants inrelation to their structural properties. Journal food hydrocolloids 24.pp 424-433. *International Organization for Standardization (F) 6647. Riz: Determination de la teneur en amylose. (1987). Lindeboom, N., Chang, P. R., Tylor, R. T. (2004). Analytical, Biochemical and physicochemical aspects of starch granule size, with: a review. Journal Starch/Stärke.56. pp 89-99 Lloyd, J. R., Wang, T. L., Hedley, C. L. (1996). An analysis of seed development in Pisum sativum XIX. Effect of mutant alleles at the r and rb loci on starch grain size and on the content and composition of starch in developing pea seeds. Journal of Experimental Botany, Vol. 47, No. 295, pp. 171-180. Rickard, J. E., Asaoke, M., J. M. V. (1991) The physicochemical properties of cassava starch. Trop. Sci, 31, 189-207 Roger, P. E., Cochrane, M. P., Dale, M. F. B., Duffus, C. M., Lynn, A., Morrison, I. M., Prentice, R. D. M., Swanston, J. S., Tiller, S. A. (1997) Starch production and industrial use. J. Sci. Food Agric, 77 289-311 ROSSES, M. Consultoría de canales y márgenes de comercialización de la yuca. Available:http://www.magfor.gob.ni/servicios/de scargas/Estudios_Mercado/Canales_Margenes_Yuca.pdf [citado 4 de abril de 2008]. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diversificación de los Almidones de Yuca y sus Posibles Usos en la Industria Alimentaria _________________________________________________________________________________________________________________________ Sabaté, A. R., Sanchez, T., Buleon, A., Colonna, P., Jaillais, B., Ceballos, H., Dufour, D. (2011 Jul). Structural characterization of novel cassava starches with low and high –amylose contents in comparison with other commercial sources. Food hydrocolloids 27 (2012) 161-174. Sanchez, T., Aristizabal, J. & Mejia, D. (2007) “Guia tecnica para produccion y analisis de almidon de yuca”, Boletin de servicios agricolas de la FAO, pg 1. Roma. Sánchez, T., Dufour, D., Moreno, I.X., y Ceballos, H. (2010, apr). Pasting and gel stability of waxy and normal starches from cassava, potato, maize, and rice under thermal, chemical and mechanical stress. Journal of Agricultural and Food Chemistry. [Online]. 58(8).pp.5093-5099. Available: http://www.ncbi.nlm.nih.gov/pubmed/20356303. Sriroth, K., Santisopasri, V., Pechalanuwat, C., Kurotjanawong, K., Piyachomkwan, K., Oates, C. G. (1999). Cassava starch granule structurefunction properties: influence of time and conditions at harvest of four cultivars cassava starch. Carbohydr. Polym. 38, 161-170. Numero de genotipos Sae-Kang, V. & Suphantharika, M. (2006 March) Influence of pH and xanthan gum addition on freeze-thaw stability of tapioca starch pastes. Carbohydrate Polymers 65 (2006) 371–380. Distrubucion de frecuencia para el contenido de amilosa en almidon 42,4 400 34,8 350 300 250 200 15,2 150 100 1,59% 2,84% 50 0,22% 0,11% 0 0 5 10 15 20 25 30 35 40 45 Amilosa (%) Figura 3. Contenido de amilosa (%). APÉNDICE A Curvas de empastamiento al 5% Figuras, tablas y márgenes Figura 4. Perfiles de viscosidad en cuatro genotipos de yuca al 5% Numero de genotipos Figura 1. . Distribución de genotipos de acuerdo a sus características. 500 Distribución de frecuencia para el contenido de materia seca Curvas de empastamiento al 10% de almidones de granulo pequeño 400 300 200 100 0 0 5 10 15 20 25 30 35 40 45 50 Materia Seca (%) Figura 5. Perfiles de viscosidad de almidones de genotipos de granulo pequeño con diferentes contenidos de amilosa (%) al 10%. Figura 2. Distribucion de frecuencia para el contenido de materia seca en pulpa de yuca (%). Revista Politécnica – Marzo 2016, Vol. 37, No. 2 5 6 Pizarro Monica1; Sánchez Tereza1; Ceballos Hernan1; Morante Nelson1; Dufour Dominique1 2 _______________________________________________________________________________________________________________________________ Curvas de empastamiento al 5% Curvas de empastamiento al 10% Figura 6. Perfiles de viscosidad de diferente genotipos de almidón con granulo pequeño al 5% y al 10% respectivamente. Figura 7. Geles obtenidos de almidones normal, waxy, doble mutante y granulo pequeño. Ecuaciones ) Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha _________________________________________________________________________________________________________________________ Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha Genoy-Puerto Alexander1; Hernández Martinez Noelia2 1 Proyecto Prometeo/Secretaría Nacional de Educación Superior, Ciencia, Tecnología e Innovación, Quito, Ecuador 2 Pontificia Universidad Católica del Ecuador Sede Ibarra, Escuela de Ciencias Agrícolas y Ambientales, Quito, Ecuador Resumen: Este trabajo presenta la metodología usada para el monitoreo de reptiles y anfibios en las áreas circunvecinas a la Laguna Cuicocha, de la Reserva Ecológica Cotacachi – Cayapas como parte de una investigación en conjunto con la PUCE-SI y el investigador Prometeo de la SENESCYT denominada “Biodiversidad de herpetofauna en áreas influenciadas por ambientes antropizados en la Reserva Ecológica Cotacachi - Cayapas”. Para establecer esta metodología fueron utilizados tres meses realizando salidas de campo para recorrer diferentes puntos y locales de la Reserva, esto como estrategia para definir las áreas donde fueron colocadas las trampas de interceptación y caída (TIC). En total fueron escogidos diez sitios con igual número de trampas instaladas. Fueron instaladas cincos TICs en ambientes antropizados (senderos turísticos y ganadería) y cinco en ambientes no antropizados. Además, búsqueda activa y encuentros ocasionales fueron otras dos metodologías utilizadas. Elastómeros fueron implementados para marcaje e identificación de los animales capturados, además, datos biométricos y de peso corporal fueron obtenidos de cada individuo. Resultados parciales indicaron tres especies de anfibios: Gastrotheca riobambae, Pristamantis curtipes y Pristamantis unistrigatus. En el caso de reptiles, dos especies fueron reportadas: Stenocercus guentheri y Pholidobolus montium. Palabras clave: Monitoreo, reptiles, anfibios, TICs. Abstract: This paper presents the methodology used for monitoring reptiles and amphibians in the surrounding areas to the Laguna Cuicocha Ecological Reserve Cotacachi – Cayapas, as part of an investigation in collaboration with the PUCE-SI and researcher Prometeo SENESCYT called "Biodiversity herpetofauna influenced by anthropogenic environments in areas Ecological Reserve Cotacachi - Cayapas". In order to apply this methodology We spent three months conducting field trips to explore different points and places of the Reserve. The strategy to define these areas was placed with pit fall (TIC). A total of ten sites were chosen with the same number of tramps installed. They were installed five TIC in anthropogenic environments (tourist trails and livestock) and five nonanthropogenic environments. In addition, active search and occasional meetings were used two more methodologies. Elastomers were implemented for marking and identification of captured animals; we obtained further data as biometric and body weight from each individual. Partial results indicate three species of amphibians: Gastrotheca riobambae, Pristamantis curtipes and Pristamantis unistrigatus. In the case of reptiles, two species were reported: Stenocercus guentheri and Pholidobolus montium. Key words: Monitoring, reptile, amphibian, pitfalls. 1 1. INTRODUCCIÓN En el ámbito de la fauna salvaje, el monitoreo puede ser entendido como un proceso de colecta, análisis y sistematización de informaciones de una población o especie silvestre que es direccionado a la realización de una gestión o manejo adecuado de ese grupo de animales o individuos. La conservación de la biodiversidad, entre otros, requiere datos de monitoreo consistentes en tiempo y espacio y que pueden servir como banco de datos para inferir el tamaño poblacional o abundancia de la especie (MacKenzie, 2005) o datos sobre distribución y abundancia, descripción de localización y condiciones de hábitats esenciales y problemas que puedan afectar adversamente a las especies y sus hábitats (DeWan y Zipkin, 2010). [email protected] Así, entre otros, el monitoreo puede ser utilizado para apoyar y evaluar programas de recuperación de poblaciones de especies amenazadas (Seidensticker, 2010); planear programas de manejo de recursos naturales y fauna salvaje (Althoff et al., 2004; Bisbal, 2001; Ringold et al., 1999); evaluar el status de la población y sus potenciales amenazas (DeWan y Zipkin, 2010) y monitorear los riesgos genéticos sobre las poblaciones silvestres afectadas por translocación (Laikre et al., 2010). La construcción y realización de emprendimientos humanos pueden considerarse factores determinantes para la pérdida de biodiversidad. El desarrollo de estos proyectos está relacionado con la pérdida y fragmentación del hábitat de especies silvestres que pueden estar amenazadas o en peligro de extinción. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 7 Genoy-Puerto Alexander1; Hernández Martinez Noelia2 _______________________________________________________________________________________________________________________________ La Reserva Ecológica Cotacachi-Cayapas (RECC), que por su ubicación geográfica está dentro de dos puntos calientes para la biodiversidad (hotspots del Chocó y Andes), puede considerarse una región ecuatoriana con gran número de fauna con endemismo del Chocó (Parker y Carr, 1992). Sin embargo, la Reserva enfrenta diferentes amenazas para la conservación de la fauna en su región, a saber, pérdida de la cobertura vegetal, minería, construcción de obras de infraestructura (carreteras, antenas etc.), crecimiento demográfico y turismo (MAE, 2007). El objetivo fundamental de este trabajo fue describir las metodologías de monitoreo de herpetofauna en las áreas circunvecinas de la laguna Cuicocha, haciendo una comparación entre ellas para ver cuál es la más adecuada para el monitoreo de herpetofauna, tanto en ambientes antrópicos como naturales. Este trabajo soportará a futuro un programa de monitoreo de herpetofauna, que describa el estado de esas poblaciones en áreas influenciadas por ambientes antrópicos y determine, si fuera el caso, programas de manejo de esas poblaciones. metodologías fueron adaptadas para las condiciones de alta montaña que tiene la laguna, como además se tomó cuidado de los requerimientos de logística, de infraestructura y presupuesto con los que contaba el proyecto. La metodología que necesitó elaborarse y construirse fue la de las TICs. Búsqueda activa y encuentros ocasionales fueron realizadas ocasionalmente. TICs: Una vez establecidos los diez puntos, fueron construidas las trampas. Como se observa en la Figura 1, cada trampa tenía un formato en ‘Y’, siendo que en las partes finales de la figura fueron enterrados tachos plásticos de 75 litros, como también en la parte de interceptación de la figura para un total de cuatro tachos. La distancia que separó un balde de otro fue de cinco metros. Entre cada balde se colocaron estacas que sirvieron de anclaje para posicionar malla de construcción y así terminar de dar forma a la ‘Y’ de la TIC. 2. MARCO TEÓRICO/METODOLOGÍA La zona de estudio fue el área circunvecina de la laguna de Cuicocha, que se encuentra dentro de la RECC, esto para poder salvaguardar evidentes problemas de logística, infraestructura, de tiempo y económicos que supondría montar un monitoreo de herpetofauna en toda la Reserva, que, según el MAE (2007), es de 243 638 hectáreas. Para el establecimiento de la metodología de monitoreo se realizaron tres etapas, a saber, salidas exploratorias, implantación de metodologías y salidas de monitoreo. Salidas exploratorias Para obtener información más precisa y delimitar las áreas influenciadas por actividades antrópicas dentro del área escogida, se realizaron las visitas exploratorias. Fueron utilizados tres meses (abril, mayo y junio 2014) para realizar salidas de campo para recorrer diferentes puntos de la Reserva. En ellas se evaluó las áreas circunvecinas a la laguna, determinando cinco puntos de monitoreo que estaban en ambientes influenciados por factores antrópicos. Se determinaron dos factores, ganadería y senderos turísticos. De igual forma, como parámetro comparativo, se realizó el monitoreo con cinco puntos en áreas internas de la Reserva que no estaban sobre influencia de ambientes antrópicos. En este aspecto se tuvo en cuenta la viabilidad de terreno y ambiental de las áreas para colocar las diez Trampas de interceptación y caída (TICs). Implantación y descripción de metodologías Las técnicas utilizadas en este estudio han sido validadas y recomendadas por investigaciones similares en la región tropical andina, como además se tuvo en cuenta los conceptos básicos dados por ellas al elaborar estos proyectos (Landres et al., 1988; Maldonado, 2007; Manzanilla y Péfaur, 2000; Noon et al., 2012; Ortega-Andrade y Tobar-Suárez, 2011; Rueda et al., 2006; Schemnitz et al., 2009). Así, esas Figura 1. Implantación de TICs. Fotografía que muestra el formato ‘Y’ que cada trampa adquirió, puede observarse las mallas de construcción que limitan el paso del individuo direccionándolo al final de la línea donde está el tacho. Fuente: Autores. La inspección se realizó en cada TIC dos veces al día, a las 8:00 de la mañana y a las 15:00 de la tarde. Cada tacho fue inspeccionado tomando el cuidado de no lesionar algún animal que por su tamaño y configuración de piel no fuera fácil de reconocer. Búsqueda activa: Se realizó en un transecto lineal de 500 metros establecido en un corredor turístico que rodea la laguna. La utilización de este transecto solo se dio dos únicas veces, en el periodo de la tarde, esto en consecuencia de tener personal suficiente y tiempo para recorrer el transecto propuesto y teniendo en cuenta lo escarpado del terreno para poder realizar un mayor número de transectos. Dos observadores, cada uno apostado a lado y lado de la ruta, realizaron búsqueda activa; con la ayuda de gancho herpetológico y guantes de carnaza se inspeccionó debajo de rocas y hojarasca y entre vegetación aledaña al transecto para capturar reptiles y anfibios (Figura 2). La distancia entre el transecto y el observador-captor no fue mayor de un metro. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 8 Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha _________________________________________________________________________________________________________________________ guantes cortos de carnaza para reptiles, procediendo a su identificación. Una vez capturado el animal, se comprobaba si era una recaptura observando la fluorescencia del biopolímero con luz ultravioleta, si así era, se anotaba en la planilla de campo, en caso contrario, se procedía a su marcación. Para la marcación, se utilizó un kit de marcación, Visible Implant Elastomer Tags ® (Northwest Marine Technology, Inc. Ben Nevis Loop Rd Shaw Island, WA, USA). Los anfibios fueron marcados en la parte interna de la pata posterior y los reptiles en el primer tercio de la cola, siguiendo un código de colores para su identificación en una posible recaptura. Figura 2. Búsqueda activa. Fotografía de un Pristamantis curtipes encontrado cuando fue inspeccionada una bromelia cercana al transecto propuesto para monitoreo. Fuente: Autores. Encuentros ocasionales: Ante el avistamiento ocasional de algún reptil y/o anfibio durante el desplazamiento para alguna TIC o en inmediaciones de esta (Figura 3), se intentó su captura y posterior manejo de registro. Se implantaron redes pequeñas y/o guantes de carnaza para restringir el animal. Finalizada la marcación, se midieron parámetros morfométricos de cada individuo. Las variables que se midieron para anfibios y reptiles fueron la longitud rostrocloaca y longitud de la cola, longitud de pie y manos, ancho corporal y de la cabeza. Además, se registró su peso. Cada individuo fue identificado hasta el nivel taxonómico de género. Cuando fue posible, otros parámetros fueron obtenidos: sexo, edad relativa y variables ambientales como temperatura y humedad relativa. 3. RESULTADOS Y DISCUSIÓN Monitoreo de herpetofauna Figura 3. Encuentro ocasional de anfibio. Fotografía que muestra un Pristamantis unistrigatus que fue localizado en la malla de una TIC. Fuente: Autores. El tiempo efectivo de colecta fue un mes y medio (de septiembre a octubre 2014), lo que impide tener resultados representativos de estas poblaciones. En total, fueron registrados 16 anfibios y 28 reptiles. Gastrotheca riobambae (2), Pristamantis curtipes (10) y Pristamantis unistrigatus (4) fueron las especies de anfibios encontradas. Stenocercus guentheri (18) y Pholidobolus montium (10) fueron las especies de reptiles reportadas. Esto también explicaría la baja tasa de recaptura (un reptil, S. guentheri y dos anfibios, P. unistrigatus), la cual, una vez incrementada, aumentaría la posibilidad de establecer los parámetros poblacionales que se querían en un monitoreo más profundo. En las Figuras 4 y 5 se observan individuos de las especies capturadas y marcadas durante el periodo efectivo de monitoreo. A B Monitoreo El método utilizado fue el de captura - marcación – recaptura, en donde se estima el tamaño de la población de estudio en base a la recaptura de individuos que han sido capturados y marcados previamente por metodologías de monitoreo como las aquí propuestas. C En las salidas de monitoreo ante la constatación de un animal en la TIC, en la búsqueda activa en el transecto o en un encuentro ocasional, se capturó el(os) reptil(s) y/o anfibio(s); se realizaron identificación y marcación de los individuos capturados; se les tomó parámetros biométricos y finalmente se liberaron. Personal entrenado en captura y restricción física tomaba el animal, con guantes sin talco para el caso de anfibios y con Figura 4. Anfibios monitoreados. A. Pristamantis curtipes (n=10). B. Pristamantis unistrigatus (n=4). C. Gastrotheca riobambae (n=2). Fuente: Autores. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 9 10 Genoy-Puerto Alexander1; Hernández Martinez Noelia2 _______________________________________________________________________________________________________________________________ A metodologías adecuadas para la captura de ranas y sapos. Ver Figura 6. B Figura 5. Reptiles monitoreados. A. Pholidobolus montium (n=10). B Stenocercus guentheri (n=18). Fuente: Autores. Aunque el porcentaje de recaptura es bajo, se demostró en campo que el elastómero es visible a simple vista, o con la utilización de linterna ultravioleta, como lo demuestran otros estudios; se comprobó igualmente que el kit de elastómeros no requiere gran logística de transporte y es fácil de utilizar. En este estudio no se reportó la muerte pos-captura de ningún animal, lo que posiblemente puede indicar que los compuestos fueron inoculados correctamente y que no se causa vías de entradas para enfermedades y/o infecciones y posterior muerte del animal (Antwis et al., 2014). En cuanto a la duración y características de las metodologías, los autores recomiendan y estiman necesario continuar el estudio con la misma logística, metodología y financiamiento por un periodo de 18 meses, para que se incluya dos temporadas de seca y dos de lluvias, de dos semanas por mes por los tres primeros meses, tres días por semana, dando un intervalo de un mes, para retomar actividades en los siguientes tres meses y así sucesivamente hasta completar los 18 meses. De esta forma se lograría una base de datos sólida, para así inferir si la herpetofauna es indicadora de biodiversidad en la Reserva, como seguramente sí podrá serlo. Además, como se ha recomendado en esta clase de estudio, deberá ser acompañado por evaluación biótica de flora y abiótica de suelos (Lajeunesse et al., 1995) y tener una evaluación de sus datos para saber si existieron efectos negativos de las técnicas empleadas (Jewell, 2013). Metodologías de monitoreo Tomando en cuenta capturas y recapturas (47), se analizó la validez de las metodologías utilizadas y la relevancia que tuvo cada una de ellas en los reptiles y anfibios. En cuanto a la validez de metodologías, las TICs resultaron mucho más efectivas con un 65,96 % (31/47) de los animales interceptados por este método, frente a las demás metodologías empleadas, como son la búsqueda activa con un 23,40 % (11/47) y los encuentros ocasionales un 10,64 %. (5/47). Tomando en cuenta si el animal era reptil y anfibio, la metodología de captura más efectiva para reptiles fue las trampas de interceptación y caída, con 27 individuos capturados (93,10 %) contra dos encuentros ocasionales (6,90 %). Ya en anfibios, la búsqueda activa se mostró más efectiv a, con 11 individuos capturados con este método (61,11 %); sin embargo, las TICs (cuatro= 22,22 %) y los encuentros ocasionales (tres = 16,67 %) son también Figura 6. Gráfico de comparación de la efectividad de las metodologías de muestreo de entre anfibios y reptiles. BA: Búsqueda activa. EO: Encuentro ocasional. TIC: Trampas de interceptación y caída El esfuerzo de muestreo para TICs fue el siguiente: 16 salidas de campo para el monitoreo, para un total de 100 visitas a las TICs instaladas. Cada trampa fue visitada dos veces al día, una en el periodo de la mañana y la otra en el periodo de la tarde, con un promedio de 6,67 de observadores por visita realizada. Los encuentros ocasionales estuvieron relacionados con hallazgos fortuitos de los individuos, no se puede establecer un esfuerzo de captura real. La búsqueda activa solo fue realizada como una técnica complementaria y que en consecuencia de los requerimientos de personal y tiempo no fue implementada con una mayor profundidad de tiempo. Sin embargo, las dos técnicas, como demuestran sus resultados, son factibles de ser utilizadas en anfibios y reptiles y que dependiendo del periodo de monitoreo pueden arrojar resultados medibles e interesantes. Caracterización de herpetofauna antropizados y no antropizados en ambientes A continuación se hace una caracterización del número de individuos encontrados en ambientes antropizados y no antropizados a lo largo de este estudio. En total fueron encontrados 47 ejemplares, de los cuales 3 de ellos fueron recapturas. Como observado en el Figura 7, la mayoría de en individuos, 36, fueron capturados en ambientes antropizados y muy pocos, 11, en ambientes no antropizados. De los 36 individuos en ambientes antropizados los resultados fueron cercanos. El 44 % fueron anfibios (16/36) y el 55,56 % fueron reptiles (20/36). De los anfibios 10 Pristamantis curtipes (27,78 %) fue la especie más representativa. Pristamantis unistrigatus y Gastrotheca riobambae con 4 (11,11 %) y 2 (5,56 %) individuos fueron poco representativas. En los reptiles, Stenocercus guentheri fue el grupo mayoritario con 15 animales (41,67 %). Pholidobolus montium solo tuvo 5 individuos (13,89 %). De los 11 especímenes en ambientes no antropizados los resultados mostraron una diferencia más marca, 18,18 % en anfibios (2/11) y 81,82 % en reptiles (9/11). Los dos individuos de los anfibios fueron Pristamantis unistrigatus. En reptiles, Pholidobolus montium y Stenocercus guentheri Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Validación de la Metodología TICs en el Monitoreo de Herpetofauna en Áreas Circunvecinas a la Laguna Cuicocha 11 _________________________________________________________________________________________________________________________ tuvieron resultados cercanos, 5 (45,45 %) y 4 (36,36 %) respectivamente. Figura 7. Grafico que muestra el porcentaje de capturas según especie de anfibio o reptil en ambientes antropizados o no antropizados. La variabilidad de estos resultados pueden ser explicados en razón del poco tiempo disponible para realizar el muestreo. Sin embargo, demostraron que anfibios y reptiles se encuentran en los dos ambientes de la reserva y que los porcentajes de captura se aumentan en los locales antropizados. Esto último tal vez, sea explicable al analizar las metodologías de captura utilizadas en cada matriz (antropizada o no). Al enfrentar las metodologías con las dos matrices evaluadas (antrópica y no antrópica), se puedo observar (Figura 8) que los encuentros ocasionales y las TICs pueden ser aplicadas a las dos matrices. Las TICs superaron el 50 % de las capturas realizadas en ambientes antrópicos (21/36 = 58,33 %) y no antrópicos (10/11=90,91 %) y los encuentros ocasionales fueron el 11,11 % (4/36) y el 9,09 % (1/11) respectivamente. La búsqueda activa como dicho anteriormente dependió de los recursos de personal y logísticos. Sin embargo, cuando utilizada arrojó un resultado de 30,56 % (11/36) de capturas en ambientes antropizados. Como observado anteriormente los anfibios tuvieron pocas capturas en ambientes no antropizados, así, la utilización de búsqueda activa en estos lugares podría ayudar a incrementar el seguimiento de estas poblaciones. 4. CONCLUSIONES La gestión y manejo de poblaciones silvestres se puede apoyar con la consecución de conteos de individuos en la zona albo de interés. Sin embargo, esto debe surgir de un programa de monitoreo que sea consistente en tiempo y espacio. Este trabajo cumple con el objetivo de demostrar que metodologías como las trampas de interceptación y caída, la búsqueda activa y encuentros ocasionales sirven para monitorear herpetofauna que pueda estar sobre la influencia de ambientes antropizados en las áreas circundantes de la laguna de Cuicocha en la Reserva Ecológica CotacachiCayapas. Los resultados parciales demuestran que estas metodologías permiten de manera eficaz la captura, identificación y marcación de reptiles y anfibios y que, además, los biopolímeros de marcación pueden ser una herramienta eficaz de marcaje en estos dos taxones. Por otro lado, estos resultados demuestran que el estudio, si continúa con las recomendaciones ya dadas de logística y, desde luego, de financiamiento, podrá en un futuro crear una base de datos lo suficientemente interesante y representativa de la comunidad de herpetofauna en la laguna y, así, generar estrategias de conservación de estas poblaciones silvestres. AGRADECIMIENTO Los autores agradecen al Proyecto Prometeo de la Secretaria Nacional de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) del Ecuador y a la Pontificia Universidad Católica del Ecuador Sede Ibarra y a su Escuela de Ciencias Agropecuarias y Ambientales por el apoyo logístico y financiero a la investigación. También agradecen el apoyo logístico de campo al Ministerio del Medio Ambiente, Zonal 1 del Ecuador enmarcado en el permiso ambiental n° 08-2014-0227-IC-FAU-FLO-DPAI-UPN-MAE. REFERENCIAS Althoff, D. P., Rivers, J. W., Pontius, J. S., Gipson, P. S., & Woodford, P. B. (2004). A comprehensive approach to identifying monitoring priorities of small landbirds on military installations. Environmental Management, 34(6), 887-902. http://dx.doi.org/10.1007/s00267-004-0023-z Antwis, R. E., Garcia, G., Fidgett, A. L., & Preziosi, R. F. (2014). Tagging frogs with passive integrated transponders causes disruption of the cutaneous bacterial community and proliferation of opportunistic fungi. Applied and Environmental Microbiology, 80(15), 4779-4784. http://dx.doi.org/10.1128/aem.01175-14 Bisbal, G. A. (2001). Conceptual design of monitoring and evaluation plans for fish and wildlife in the Columbia River ecosystem. Environmental Management, 28(4), 433-453. http://dx.doi.org/10.1007/s002670010235 DeWan, A. A., & Zipkin, E. F. (2010). An integrated sampling and analysis approach for improved biodiversity monitoring. Environmental Management, 45(5), 1223-1230. http://dx.doi.org/10.1007/s00267-010-94577 Figura 8. Grafico que muestra el porcentaje de capturas según la metodología de monitoreo utilizada en ambientes antropizados o no antropizados. Jewell, Z. O. E. (2013). Effect of Monitoring Technique on Quality of Conservation Science. Conservation Biology, 27(3), 501-508. http://dx.doi.org/10.1111/cobi.12066 Laikre, L., Schwartz, M. K., Waples, R. S., Ryman, N., & Group, T. G. W. (2010). Compromising genetic diversity in the wild: unmonitored large-scale release of plants and animals. Cell Press, 25(9), 520-529. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Genoy-Puerto Alexander1; Hernández Martinez Noelia2 _______________________________________________________________________________________________________________________________ Lajeunesse, D., Domon, G., Drapeau, P., Cogliastro, A., & Bouchard, A. (1995). Development and application of an ecosystem management approach for protected natural areas. Environmental Management, 19(4), 481-495. http://dx.doi.org/10.1007/bf02471962 Landres, P. B., Verner, J., & Thomas, J. W. (1988). Ecological Uses of Vertebrate Indicator Species: A Critique. Conservation Biology, 2(4), 316328. http://dx.doi.org/10.1111/j.1523-1739.1988.tb00195.x MacKenzie, D. I. (2005). What are the issues with presence-absence data for wildlife managers? Journal of Wildlife Management, 69(3), 849-860. http://dx.doi.org/10.2193/0022-541x(2005)069[0849:watiwp]2.0.co;2 MAE. (2007). Plan de Manejo de la Reserva Ecológica Cotacachi Cayapas. Quito, Ecuador: Proyecto GEF Ecuador. Maldonado, M. M. M. (2007). Monitoreos de anfibios y reptiles terrestres en áreas de aprovechamiento forestal en bosques de Bolivia. Santa Cruz, Bolivia: Proyecto BOLFOR / Instituto Boliviano de Investigación en Bosques de Bolivia. Manzanilla, J., & Péfaur, J. E. (2000). Consideraciones sobre métodos y técnicas de campo para el estudio de anfibios y reptiles. Revista de Ecología Latinoamericana, 7(1-2), 17-30. Noon, B. R., Bailey, L. L., Sisk, T. D., & McKelvey, K. S. (2012). Efficient Species-Level Monitoring at the Landscape Scale. Conservation Biology, 26(3), 432-441. http://dx.doi.org/10.1111/j.1523-1739.2012.01855.x Ortega-Andrade, H. M., & Tobar-Suárez, C. (2011). Tamaño poblacional, uso de hábitat y relaciones interespecíficas de Agalychnis spurrelli (Anura: Hylidae) en un bosque húmedo tropical remanente del Noroccidente de Ecuador. Papéis Avulsos de Zoologia, 51(1), 1-19. http://dx.doi.org/10.1590/S0031-10492011000100001 Parker, I. T. A., y Carr, J. L. (Eds.). (1992). Status of Forest Remnants in the Cordillera de la Costa and Adjacent Areas of Southwestern Ecuador: Conservation International. Ringold, P. L., Mulder, B., Alegria, J., Czaplewski, R. L., Tolle, T., & Burnett, K. (1999). Establishing a regional monitoring strategy: The Pacific Northwest Forest Plan. Environmental Management, 23(2), 179-192. http://dx.doi.org/10.1007/s002679900178 Rueda, J. V., Castro, F., y Cortez, C. (2006). Técnicas para el inventario y muestreo de anfibios: Una compilación. In A. Angulo, J. Rueda-Almonacid, J. V. Rodríguez-Mahecha & E. La Marca (Eds.), Técnicas de inventario y monitoreo para los anfibios de la región tropical andina (pp. 135-171). Bogotá D.C.: Conservación Internacional. Panamericana Formas e Impresos S.A. Schemnitz, S. D., Batcheller, G. R., Lovallo, M. J., White, H. B., y Fall, M. W. (2009). Capturing and Handling Wild Animals. In N. J. Silvy (Ed.), The wildlife techniques manual (pp. 63-117). Baltimore: Johns Hopkins University Press. Seidensticker, J. (2010). Saving wild tigers: A case study in biodiversity loss and challenges to be met for recovery beyond 2010. Integrative Zoology, 5(4), 285-299. http://dx.doi.org/10.1111/j.1749-4877.2010.00214.x Revista Politécnica - Marzo 2016, Vol. 37, No. 2 12 Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos _________________________________________________________________________________________________________________________ 13 Materiales Compuestos de Resina Poliéster y la Fracción no Metálica de Tarjetas de Circuitos Impresos Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1 1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y Agroindustria, Quito, Ecuador Resumen: Las tarjetas de circuitos impresos (PCBs) son la parte fundamental de todos los equipos electrónicos y constituyen una mezcla compleja de componentes. Este estudio tuvo el propósito de incorporar la fracción no metálica (FNM) de las PCBs en una matriz de resina poliéster insaturada (RPI), para obtener materiales compuestos RPI/FNM, y en consecuencia, reutilizar la FNM de las PCBs, disminuir la contaminación ambiental de las mismas y el costo de materia prima mediante la obtención de un material con características similares a la resina pura. Se formularon materiales con 20, 30 y 35% en peso de FNM, con dos tamaños de partícula: 0,15-0,075 mm y <0,075 mm. Se realizaron pruebas mecánicas de tracción, flexión y abrasión para determinar el efecto que produce la incorporación de los residuos (FNM). Además, se realizó una prueba de TCLP y MEB, para caracterizar los materiales compuestos. Los materiales compuestos formados con 30 y 35% de residuos de tamaño <0,075 mm presentaron la mayor deformación al pico. Todos los materiales formulados presentan disminución en el esfuerzo a la ruptura en comparación al material puro. Los materiales que contenían 35% de residuos de tamaño <0,075mm presentan el valor más alto de esfuerzo a la rotura y la mayor resistencia al esfuerzo de flexión. El módulo de flexión y de tracción no varió significativamente con la incorporación de los residuos. En cuanto a la abrasión, la incorporación de los residuos provocó menor desgaste de la superficie expuesta al ensayo, mejorando la resistencia a la abrasión. Palabras clave: Materiales compuestos, tarjetas de circuitos impresos, resina poliéster insaturada, residuos electrónicos, fracción no metálica, reciclaje. Composite Materials of Polyester Resin and Non- Metallic Fraction of Printed Circuit Boards Abstract: Printed circuit boards (PCBs) are the fundamental part of all electronic equipment and they are a complex mixture of components like epoxy resin, fiberglass and metals. The aim of this study was to incorporate the non-metallic fraction (NMF) of PCBs in polyester resin composites in order to reuse the NMF, reduce the environmental impact, and decrease production costs by obtaining a composite material with similar properties of polyester resin. Composites with 20, 25 and 35% and two particle sizes 0,15-0,075 mm and <0,075 mm were formulated. Tensile, flexural and abrasion tests were conducted to determine the effect of the NMF incorporation. Moreover, a TCLP test and SEM were conducted in order to characterize the material. The stress at pick of composites with 30 and 35% and particle size <0,075 mm of residues showed the highest value. All materials exhibit a decrease of values of tensile properties compared with pure material. However, composites that contained 35% of NMF and particle size <0,075mm have the highest stress at pick value (17,36 Mpa). Likewise, this composite presented the highest resistance to flexural stress (58,50 MPa), which represents an increase of 0,5% compared with the pure material. The flexural and tension modulus did not vary significantly with incorporation of NMF. Addition of NMF caused less wastage on the surface exposed to abrasion: the lowest value of weight loss was presented by composites with 35% of particle size <0,075 mm which showed a decrease of 42.85% in weight with reference to the pure material. Keywords: Composite, printed circuit boards, unsaturated polyester resin, electronic waste, non-metallic fraction, recycling. 1 1. INTRODUCCIÓN Los residuos de aparatos electrónicos son parte de los residuos sólidos que se generan en el mundo, debido a que [email protected] éstos (como celulares y computadoras) se renuevan en un tiempo corto de 3 a 5 años. Las Naciones Unidas estiman que entre 20 y 50 millones de toneladas de basura proveniente de residuos eléctricos y electrónicos (o basura electrónica) se producen alrededor del mundo cada año. Esto representa representara más del 5 % de toda la basura municipal Revista Politécnica - Marzo 2016, Vol. 37, No. 2 14 Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ (Cobbing, 2008). Estos residuos requieren de un tratamiento adecuado porque si se los desecha producen un gran impacto ambiental debido a sus componentes como por ejemplo los metales pesados, retardantes a la llama bromados, entre otros (Román, 2014). Las placas de circuitos impresos son la plataforma sobre la cual los elementos microelectrónicos son colocados, proporcionan las interconexiones eléctricas entre sus componentes, se encuentran en prácticamente todos los aparatos eléctricos y electrónicos. Estas placas son una mezcla compleja de fibra de vidrio, resina polimérica y metales. Debido a esto y sus características hacen que su separación y reciclaje se dificulte (LaDou, 2006). El reciclaje de estas placas consiste en la recuperación de la fracción metálica y la fracción no metálica. Esta última corresponde entre el 70 % y 80 % del peso total de las placas. Esta fracción no metálica está comprendida por fibra de vidrio (65 %), resina epóxica (32 %), impurezas (cobre:<3 %, soldadura<0,1 %) y retardantes a la llama bromados (Guo et al., 2009) La disposición y recuperación de la fracción no metálica de los residuos de los aparatos electrónicos tiene un alto impacto ambiental debido a su contenido de sustancias peligrosas como retardantes a la llama, cadmio y plomo, lo cual implica un alto costo de producción (Wager et al., 2011) Existen varias técnicas de reciclaje de la fracción no metálica de las tarjetas de circuitos impresos, como el reciclaje químico, que consiste en la descomposición de los polímeros en sus monómeros o compuestos químicos, y el reciclaje físico, el cual combina la fracción no metálica con diferentes materiales los cuales pueden ser plásticos, concreto o materiales viscoelásticos, formando un material compuesto y mejorando las propiedades de la matriz utilizada como resistencia, tracción, durabilidad y permeabilidad (Guo et al., 2008). Por otro lado, las resinas poliéster insaturadas son producto de la policondensación de ácidos saturados e insaturados con un diol. Tienen gran aplicación en la industria ya que al curar se vuelven sólidos termoestables, que pueden utilizarse en forma pura, con cargas o como material reforzado, esto debido a su bajo costo, fácil procesamiento, buena resistencia química y buenas propiedades mecánicas. Por ejemplo la resina poliéster puede ser reforzada incluso con fibra de coco mejorando sus propiedades mecánicas con un 20 % de fibras. (Delgado et al., 2014; Deli et al., 2013). Por estos motivos, el objetivo principal del presente proyecto es incorporar la fracción no metálica de las tarjetas de circuitos impresos en una matriz de resina poliéster insaturada con el fin de producir un material compuesto que presente mejores o similares propiedades mecánicas (tracción flexión y abrasión) que el material de resina poliéster puro; además de caracterizar al material mediante pruebas de TCLP (Procedimiento para determinar las Características de Toxicidad del Lixiviado por sus siglas en ingles) y MEB (Microscopía Electrónica de Barrido) . 2. METODOLOGÍA 2.1 Materiales Los reactivos utilizados fueron: resina poliéster insaturada, octoato de cobalto y peróxido de metil-etil-cetona. Se utilizó la fracción no metálica (FNM) de las tarjetas de circuitos impresos para la formación de los materiales compuestos. Se obtuvieron previamente las FNM de tamaños de partícula: 0,15-0,075 mm y <0,075 mm. 2.2 Producción de los materiales compuestos de resina poliéster y FNM de tarjetas de circuitos impresos. Inicialmente fue extraída la fracción no metálica de las tarjetas de circuitos impresos, esto se realizó mediante un proceso de molienda y de separación gravimétrica utilizando un molino de martillos y una mesa de separación gravimétrica respectivamente. Utilizando un tamiz se separó la FNM obtenida en dos tamaños: 0,15-0,075 mm y <0,075 mm. Para la elaboración de los materiales compuestos se colocó resina poliéster insaturada en un envase plástico, a este se añadió 2 % de peróxido de metil-etil-cetona y 1 % de catalizador octoato de cobalto, se agitó durante 15 segundos y se añadió inmediatamente la fracción no metálica. La mezcla fue colocada en moldes de tamaños correspondientes a los ensayos mecánicos a realizarse. Se formularon materiales con 20, 30 y 35 % de carga con los dos tamaños de partícula mencionados, es decir, se obtuvieron un total de 6 tipos de materiales compuestos a los cuales se midieron sus propiedades mecánicas de tracción, flexión y abrasión. 2.3 Ensayos de tracción Los ensayos de tracción fueron llevados a cabo en una máquina universal de ensayos marca INSTRON modelo 1011 bajo la norma ASTM D3039 “Método de prueba estándar para propiedades de tracción para materiales compuestos con matriz polimérica”. Las probetas utilizadas tuvieron forma rectangular de 1 cm de ancho, 14 cm de largo y 0,3 cm de espesor (ASTM D3039, 2008). Se realizaron los ensayos de tracción sobre un total de 10 probetas tanto para la muestra sin carga así como para cada concentración y tamaño de partícula formulado inicialmente. Los resultados obtenidos fueron de deformación al pico, esfuerzo al pico y módulo de Young. 2.4 Ensayos de flexión Los ensayos de flexión se realizaron en la maquina universal de ensayos marca INSTRON modelo 1011 bajo a norma ASTM D7264 “Método de pruebas estándar para propiedades de flexión para materiales compuestos con matriz polimérica”, las probetas tuvieron la misma forma y dimensiones utilizadas en los ensayos de tracción (ASTM D7264, 2007). Revista Politécnica - Marzo 2016, Vol. 37, No. 2 15 Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos _________________________________________________________________________________________________________________________ 2.5 Ensayos de abrasión Los ensayos de abrasión se realizaron en un abrasímetro rotatorio marca Taber modelo 5130, bajo la norma ASTM G195 “Guía estándar para la realización de pruebas de desgaste utilizando un abrasímetro rotatorio” (ASTM G195, 2013). Se ensayaron 3 probetas tanto para la muestra sin carga como para cada concentración y tamaño de partícula formulado inicialmente. Las probetas fueron placas cuadradas de 10 cm por lado. 2.6 Análisis de determinación de toxicidad de lixiviados (TCLP) Se realizó el análisis TCLP para el material compuesto de resina poliéster insaturada y 35 % de la fracción no metálica de tarjetas de circuitos impresos. Para esto se tomaron 10 g de muestra representativa, se colocó la muestra en un vaso de precipitación, se añadieron 200 mL de agua destilada y 0,5 mL de ácido acético ya que el análisis se lleva a cabo a pH 4, y se dejó en agitación por 21 horas. Este análisis se lo realizó siguiendo el método 1311 de la EPA (EPA, 1992). Los resultados obtenidos en el presente proyecto fueron comparados con los resultados obtenidos por LaDou (2006) con el fin de evaluar el encapsulamiento de los residuos en la matriz de resina poliéster insaturada. 2.7 Microscopía electrónica de barrido El material que presentó los mayores valores en cuanto a propiedades mecánicas fue analizado mediante microscopía electrónica de barrido (MEB) con el equipo Tescan con analizador de Rayos X Quantax. El material fue cortado para obtener una superficie plana y revestido de oro para aumentar su conductividad, mejorando así la imagen visualizada en el microscopio. Los parámetros utilizados fueron los siguientes: 10kV de voltaje de aceleración, tipo de señal electrones secundarios y 300X, 500X, 1 000X y 2 000X aumentos. 3. RESULTADOS Y DISCUSIÓN 3.1 Producción de los materiales compuestos de resina poliéster y FNM de tarjetas de circuitos impresos. Después de la separación gravimétrica se determinó que las tarjetas de circuitos impresos están compuestas aproximadamente por 67 % de fracción no metálica, lo cual implica que el componente mayoritario de las tarjetas son componentes no metálicos que pueden ser resinas o fibra de vidrio. En cuanto a la producción de los materiales compuestos, se tuvieron complicaciones al tratar de incorporar la fracción no metálica con mayor tamaño, es decir 0,15-0,075 mm, principalmente en los materiales con 30 y 35 %. Esto se debe principalmente a que por la alta viscosidad de la mezcla con la resina poliéster, no se logró obtener un material uniforme ocasionando superficies irregulares en la parte superior de las placas. En los materiales formados con 20 % del material de tamaño 0,15-0,075 mm y todos los materiales compuestos con tamaño <0,075 mm, se obtuvo una buena dispersión y distribución de la carga dentro de la matriz de resina poliéster. 3.2 Ensayos de tracción En la Figura 1 se muestran los resultados obtenidos en cuanto a la deformación al pico en los ensayos de tracción. Se puede observar una disminución de la deformación al pico del material compuesto con residuos de tamaño de partícula 0,15-0,075 mm con respecto al material puro. Para el material compuesto con residuos de tamaño de partícula <0,075 mm se observa un aumento de la deformación en relación al material puro cuando se incorporó 30 y 35 % de residuos. La desviación estándar de los resultados obtenidos se pudo generar a causa de ciertos errores sistemáticos en la obtención de los datos debido principalmente al equipo utilizado. En la Figura 2 se presentan los resultados obtenidos de esfuerzo al pico en los materiales compuestos reforzados con los residuos de tarjetas de circuitos impresos. Se puede observar que los menores esfuerzos se obtienen para los materiales compuestos por residuos de tamaño 0,15-0,075 mm. Esto se debe principalmente a la alta viscosidad de que presentaron los materiales formados con este tamaño de residuos, especialmente los de mayor concentración (30 y 35 %). Esta alta viscosidad produjo superficies irregulares que ocasionaron puntos de falla en los ensayos de tracción. Para los materiales compuestos con residuos de tamaño <0,075 mm se observaron los mayores valores de esfuerzo al pico, respecto a los demás materiales compuestos obtenidos. 5,00 4,00 Deformación al pico [%] Al igual que en los ensayos de tracción, se realizaron los ensayos de flexión sobre 10 probetas tanto para la muestra sin carga como para cada concentración y tamaño de partícula formulado inicialmente. Los resultados obtenidos fueron de deformación al pico, esfuerzo al pico y módulo de flexión. 3,00 2,00 1,00 0,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 1. Resultados de deformación al pico en función de la concentración de carga en ensayos de tracción Revista Politécnica - Marzo 2016, Vol. 37, No. 2 16 Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ compuestos y tan solo un 0,5 % menor al valor de esfuerzo al pico presentado por el material puro. Es decir, este material compuesto presenta similares propiedades en cuanto a flexión que el material puro. 25,00 15,00 10,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 2. Resultados de esfuerzo al pico en función de la concentración de carga en ensayos de tracción Sin embargo, estos resultados no superaron el esfuerzo al pico soportado por el material puro, es decir, no se logró reforzar el material en cuanto a ensayos de tracción. Pese a haber obtenido mayores valores en cuanto al esfuerzo al pico para los materiales compuestos de resina poliéster, este esfuerzo es similar al del material puro, por lo cual se puede indicar que el material compuesto con 35 % de residuos de tamaño de partícula <0,075 mm tiene propiedades similares a las del material puro. En la Figura 3 se muestran los resultados obtenidos del módulo de Young de los materiales compuestos formulados. Se puede observar que el módulo de Young aumenta en los materiales compuestos que presentaron menores valores de deformación al pico lo cual se debe a que estos dos parámetros son inversamente proporcionales. Como se observó el esfuerzo de los materiales compuestos disminuye en todos los casos en comparación con el material puro por lo cual el módulo de Young también disminuye para estos mismos materiales compuestos, debido a la relación directamente proporcional que existe entre estos dos parámetros. 3.3 Ensayos de flexión En la Figura 4 se presentan los resultados obtenidos de deformación al pico en los ensayos de flexión. Se puede observar que la deformación al pico disminuyó para todos los materiales compuestos formulados en los ensayos de flexión, a excepción de material que contenía 20 % de residuos de tamaño <0,075 mm. Esta disminución de la deformación de los materiales que contiene residuos se debe principalmente a que el componente principal de la fracción no metálica de las tarjetas de circuitos impresos es la fibra de vidrio y esta tiene una deformación menor que la de la resina poliéster insaturada. En la Figura 5 se muestran los resultados obtenidos de esfuerzo al pico de los materiales compuestos en los ensayos de flexión. Se puede observar que el esfuerzo al pico soportado por los materiales compuestos de resina poliéster insaturada disminuyó en relación al material puro. Sin embargo, se puede observar que el material compuesto que contenía 35 % de residuos de tamaño <0,075 mm presenta el valor más alto de esfuerzo al pico de los materiales De acuerdo a estudios realizados por (Zheng et al., 2009), cuando se utiliza residuos con tamaño menor a 0,105 mm, la fibra de vidrio se encuentra liberada incrementando el área de contacto entre los residuos y la matriz, lo cual beneficia la transferencia del esfuerzo de flexión desde la matriz hacia las partículas que lo refuerzan, es por esta razón que los materiales compuestos mantuvieron sus propiedades mecánicas con respecto al material puro. En la Figura 6 se presentan los resultados del módulo de flexión para cada material compuesto formulado. Se puede observar que el módulo de flexión incrementa su valor en comparación con el material puro de resina poliéster insaturada. 2000,00 Modulo de Young [MPa]] 0,00 1500,00 1000,00 500,00 0,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 3. Resultados del módulo de Young en función de la concentración de carga en ensayos de tracción 5,00 4,00 Deformación al pico[%] 5,00 3,00 2,00 1,00 0,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 4. Resultados de deformación al pico en función de la concentración de carga en ensayos de flexión 80,00 Esfuerzo máximo [MPa] Esfuerzo al pico [MPa] 20,00 60,00 40,00 20,00 0,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 5. Resultados de esfuerzo al pico en función de la concentración de carga en ensayos de flexión Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Modulo [MPa] Materiales Compuestos Producido por Resina Poliéster y la Fracción no Metálica de las Tarjetas de Circuitos Impresos _________________________________________________________________________________________________________________________ 3500,00 3000,00 2500,00 2000,00 1500,00 1000,00 500,00 0,00 0 10 20 30 40 Carga (%) 0.15mm 0.075mm Figura 6. Resultados del módulo de flexión en función de la concentración de carga en ensayos de flexión Los materiales compuestos que presentan mayores módulos de flexión son aquellos que presentaban mayores valores de resistencia al esfuerzo como es el caso del material compuesto con tamaño de partícula <0,075 mm y 35 % de residuos. Tabla 1. Resultados de ensayos de abrasión Diferencia de peso Tamaño Carga de Ensayo Ensayo Ensayo (%) Promedio partícula 1 2 3 Sin carga 0,0283 0,0251 0,0265 0,0266 25 % 0,0116 0,0176 0,0143 0,0145 30 % 0,15 mm 0,0300 0,0227 0,0237 0,0255 35 % 0,0145 0,0171 0,0129 0,0148 25 % 0,0225 0,0255 0,0254 0,0245 30 % 0,075 mm 0,0185 0,0191 0,0168 0,0186 35 % 0,0165 0,0143 0,0147 0,0152 Tabla 2. Resultados del análisis de toxicidad de lixiviados del material compuesto de resina poliéster Material compuesto de resina y 35 % de carga Concentración (mg/L) Elemento 3.4 Ensayos de abrasión En la Tabla 1 se presentan los resultados de los tres ensayos realizados de abrasión para cada material compuesto de resina poliéster insaturadas y la fracción no metálica de las PCBs y sus respectivos promedios. Los resultados obtenidos en los ensayos de abrasión demuestran un mejoramiento de la resistencia a la abrasión de los materiales compuestos con respecto al material puro. Como se puede observar en la Tabla 1 el promedio de la diferencia de pesos después de que las placas fueron expuestas a la abrasión disminuyó para los materiales compuestos. Los materiales que presentaron los menores valores de diferencia de peso fueron los que contenía los residuos de mayor tamaño, siendo el material que contenía 25 % el que presentó el menor valor. El material que presentó el menor valor de diferencia de peso de los materiales compuestos con residuos de tamaño <0,075 mm fue el que contenía 35 % de residuos, el mismo que presentó propiedades de tracción y flexión similares a las del material sin carga. 3.5 Análisis de determinación de toxicidad de lixiviados (TCLP) En la Tabla 2 se presentan los resultados obtenidos del análisis de toxicidad de lixiviados para el material compuesto por resina poliéster y 35 % de residuos de tamaño <0,075 mm. En la Tabla 2, también se pueden observar los valores máximos los cuales corresponden a la concentración de lixiviados de los residuos puros (FNM) de tamaño <0,075 mm obtenidas en trabajos anteriores (Loyo et al., 2015). Como se puede observar la concentración de todos los elementos analizados es menor con respecto a los valores máximos. Además, se observa que el plomo no excede los parámetros máximos permisibles (que es de 0,2 mg/L según la norma técnica de suelo de la ordenanza metropolitana) de lixiviación en el material compuesto. 17 Zinc Cobre Plomo Cobalto Plata Níquel Cromo Cadmio Bario Arsénico Mercurio Selenio Valor máximo del residuo 1,33 13,38 9,80 0,00 0,01 0,08 <0,01 <0,01 <0,1 <0,1 <0,1 <0,1 Valor obtenido 0,01 0,06 0,11 0,01 0,01 0,03 <0,01 <0,01 <0,1 <0,1 <0,1 <0,1 3.6 Microscopía electrónica de barrido En la Figura 7 se puede observar los resultados de la microscopía electrónica de barrido del material compuesto por resina poliéster y 35 % de residuos de tamaño <0,075 mm. En la Figura 7 se puede observar la presencia de formas tubulares que corresponde a la fibra de vidrio uno de los mayores componentes de la fracción no metálica, la misma que se encuentra incrustada en la matriz del material compuesto. En la Figura 7a) y Figura 7b) se observan pequeños agujeros de un tamaño de 0,08 mm aproximadamente lo cual se debe a la adhesión interfacial débil que existe entre la resina poliéster insaturada y los residuos. Estos agujeros no son visibles al momento en que se producen los materiales compuestos ya que se forman en el interior de los mismos, (Guo et al., 2008). En la Figura 7c) y Figura 7d) con mayores aumentos se observar una mala adherencia entre las fibras y la matriz. Tanto los agujeros como la mala adhesión influyen en la disminución de las propiedades mecánicas como se detalló en la sección 3.2 y 3.3 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 18 Loyo Carlos1; Arroyo Carla1; Cadena Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ de materia prima (resina poliéster insaturada), Además, se puede disminuir la contaminación ambiental causada por estos residuos eléctricos y electrónicos. AGRADECIMIENTO Agradecemos a la Escuela Politécnica Nacional, por el financiamiento de la investigación, a través de los fondos del Proyecto Semilla PIS 14-17. REFERENCIAS ASTM D3039. (2008). Standard Test Method for Tensile Properties of Polymer Matrix Composite Materials. Estados Unidos. ASTM D7264. (2007). Standard Test Method for Flexural Properties of Polymer Matrix Composite Materials. Estados Unidos. Figura 7. Imagen del material compuesto de resina poliéster insaturada con 35% de residuos y tamaño de partícula <0,075 mm a) 300 aumentos, b) 500 aumentos, c) 1 000 aumentos y d) 2 000 aumentos 4. CONCLUSIONES Los materiales formados con residuos de tamaño <0,075 mm se acoplaron mejor a la matriz de resina poliéster que los residuos de mayor tamaño. Los materiales compuestos de resina poliéster instaurada y residuos de tamaño <0,075 mm fueron los que presentaron los valores más altos en cuanto a propiedades de tracción y flexión. Los materiales compuestos formados con residuos de tamaño 0,15-0,075 mm fueron los que presentaron la menor pérdida de peso en los ensayos de abrasión. El material compuesto por 35 % de residuos de tamaño <0,075 mm, en general, fue el que presentó las propiedades mecánicas más altas entre los materiales compuestos. Además, presentó resultados similares a los del material puro. La producción del material compuesto por 35 % de residuos de tamaño <0,075 mm es un proceso factible de reciclaje de la fracción no metálica de PCBs (tarjetas de circuitos impresos) Mediante el análisis de toxicidad de lixiviados se comprobó el encapsulamiento de los residuos dentro de la matriz de resina poliéster insaturada, ya que las concentraciones de lixiviados disminuyeron significativamente con respecto al material puro. No se logró reforzar el material compuesto (mejorar las propiedades mecánicas) debido principalmente a la formación de pequeñas burbujas microscópicas y a la mala adhesión de los residuos con la matriz de resina poliéster. Al incorporar la FNM (fracción no metálica) de las PCBs en una matriz de resina poliéster insaturada, existe la posibilidad de reducir costos de producción asociados a la disminución ASTM G195. (2013). Standard Guide for Conducting Wear Tests Using a Rotary Platform Abraser. Estados Unidos. Cobbing, M. (2008). Toxic Tech: Not in our backyard, Uncovering the Hidden Flows of e-Waste. Greenpeace. Obtenido de: http://www.greenpeace.org/international/Global/international /planet2/report/2008/2/not-in-our-backyard-summary.pdf (Diciembre, 2015) Delgado, F., Galeas, S. y Guerrero, V. (2014). Obtención de Materiales Compuestos Híbridos de Matriz Poliéster Reforzada con Fibras de Coco y Vidrio para la Elaboración de Tableros. Revista Politécnica. 33 (1). Obtenido de: http://www. revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2/article/vie w/87/pdf. (Septiembre, 2015) Deli, D., Ebdon, J., Kandola, K. y Krishman. L. (2013). Blends of Unsaturated Polyester and Phenolic Resins for Applications as Fire-resistant Matrices in Fible-reinforced Composites. Part 1: Identifying Compatible, Co-curable Resin Mixtures. Journal of Materials Science, 48(20), 6929– 6942. EPA. (1992). Method 1311: Toxicity Characteristics Leaching Procedure, Obtenido de http://www.epa.gov/osw/hazard /testmethods/sw 846/ pdfs/1311.pdf. (Julio, 2013). Guo, J., Guo, J. y Xu, Z. (2009). Recycling of non-metallic fractions from waste printed circuit boards: A review. Journal of Hazardous Materials, 168(2-3), 567-590. Guo, J., Li, J., Rao, Q. y Zu, Z. (2008). Phenolic Molding Compound Filled with Nonmetals of Waste PCBs. Environmental Science & Technology, 42(2), 624-628. LaDou, J. (2006). Printed circuit board industry. International Journal of Hygiene and Environmental Health, 209(3), 211-219. Loyo, C., Arroyo, C., Aldás, M. y Montero, R. (2015). Extracción y caracterización de la fracción no metálica de las tarjetas de circuitos impresos de computadoras desechadas. Revista Politécnica. 36 (2), 67-72. Román, I. (2014). eWaste en América Latina: El aporte de los operadores móviles en la reducción de la basura electrónica 1(1), 1-44. Obtenido de: http://www.gsma.com/latinamerica/ wpcontentuploads/2014/05/eWasteLatam-spa-Completo.pdf (Julio, 2015). Wager, P. A., Schluep, M., Muller, E. y Gloor, R. (2011). RoHS regulated Substances in Mixed Plastics from Waste Electrical and Electronic Equipment. Environmental Science & Technology, 46(2), 628-635. Zheng, Y., Shen, Z., Cai, C., Ma, S. y Xing, Y. (2009). The reuse of nonmetals recycled from waste printed circuit boards as reinforcing fillers in the polypropylene composites. Journal of Hazardous Materials, 163(2-3), 600-606. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica _________________________________________________________________________________________________________________________ 19 Recuperación de Aluminio a partir de Empaques tipo blister usados por la Industria Farmacéutica Erazo Clara1; de la Torre Ernesto1; Endara Diana1 1 Escuela Politécnica Nacional, Facultad de Ingeniería Química y Agroindustria, Quito, Ecuador Resumen: Se ha desarrollado un proceso para la recuperación de aluminio a partir de empaques farmacéuticos tipo blister, mediante lixiviación de PVC con solventes orgánicos y fusión de las láminas de aluminio con sales de cloro y flúor. Las condiciones de lixiviación de PVC se determinaron mediante el uso de acetona y acetato de n- butilo 98 % de pureza y en solución con etanol al 50 % v/v y 25 % v/v, durante 180 min en intervalos de 30 min cada uno. Las láminas metálicas recuperadas fueron compactadas y sometidas a ensayos de fusión variando la composición molar de sales fundentes, porcentaje de carga, temperatura y tiempo, con el fin de establecer las condiciones que permitan la mayor recuperación de la fase metálica. Los productos fueron caracterizador por difracción de rayos X y espectrofotometría de chispa. Con base en los resultados, la etapa de lixiviación debe realizarse con acetato de n- butilo al 98% como solvente, durante 150 min. El proceso de fusión requiere el uso de una carga fundente del 200 % de composición molar 60 % de NaCl y 40 % de KCl a una temperatura de 750 °C durante 1,75 h. Se logra una recuperación del 65 % de aluminio metálico con una pureza del 98,57 %. Palabras clave: Aluminio, recuperación, empaque blister, lixiviación, fusión. Aluminum Recovery from blister Packaging used by Pharmaceutical Industry Abstract: A process for recovering has been developed from pharmaceutical blister packs, by leaching of PVC with organic solvents and melting the aluminum sheets with chlorine and fluorine salts. Leaching conditions PVC were determined using acetone and n-butyl acetate pure and solutions with ethanol 50 v/v and 25 % v/v during 180 min in 30 min each one. The metal sheets recovered were compacted and subjected to fusion assays varying the molar flux salt composition, percentage of load, temperature and time, in order to establish the conditions that allow greater recovery of the metallic phase. The products were characterizing by DRX and spark spectrophotometry. Based on the results, the leaching step must be done with n-butyl acetate as solvent 98 % during 150 min. The fusion process requires the use of a flux loading of 200 %, molar composition of 60 % NaCl and 40 % KCl at a temperature of 750 ° C for 1,75 h. A recovery of 65 % aluminum metal is achieved with a purity of 98,57 %. Keywords: Aluminum, recovery, blister packaging, leaching, fusion. 1. requerida en procesos de producción primaria. Además, se reduce la generación de residuos sólidos hasta del 85 % (Schlesinger, 2013; Totten y MacKenzie, 2003). INTRODUCCIÓN 1.1. Reciclaje de aluminio Un tercio del aluminio que se consume a nivel mundial proviene de procesos de reciclado. Este metal tiene la característica de mantener su estructura atómica durante el proceso de fusión, por lo cual es posible reciclarlo de forma repetitiva sin perder valor económico ni pureza (Rubinos, 2007)1 La producción secundaria de aluminio presenta una disminución del 93 % de consumo de energía respecto a la [email protected] 1.1.1 Fusión de aluminio con sales de cloro y flúor El principal inconveniente en la fusión de aluminio es la alta reactividad del material lo cual provoca contaminación en la superficie. La técnica de fusión que se seleccione debe evitar el contacto directo con la llama, para esto se utiliza cargas fundentes que impiden la formación de óxidos (Román, 1992). El proceso de reciclaje de aluminio utiliza sales como carga fundente con el fin de proteger el material de la oxidación, remover la capa de óxido formada y promover la coalescencia de gotas de aluminio. Estas sales deben cumplir con las siguientes características: tener puntos de fusión por Revista Politécnica - Marzo 2016, Vol. 37, No. 2 20 Erazo Clara1; de la Torre Ernesto1; Endara Diana1 _______________________________________________________________________________________________________________________________ debajo de los 720 °C, no ser higroscópicos, no ser causante de impurezas y tener presión de vapor baja. El principal inconveniente en el proceso es la producción de un residuo que debe ser tratado antes de su disposición final (Totten y MacKenzie, 2003). Generalmente, la carga fundente consiste en una mezcla equimolar entre cloruro de sodio (NaCl) y cloruro de potasio (KCl). Con la finalidad de aumentar la recuperación de aluminio, se suelen añadir sales de flúor que facilitan la coalescencia de las gotas formadas durante la fusión (Totten y MacKenzie, 2003). En el año 2010, Yépez realizó un estudio sobre el reciclaje de aluminio de desechos industriales y electrónicos utilizando sales de cloro y flúor. El análisis incluyó disipadores de calor, limallas de extrusión, limallas de corte de perfiles y escoria de fusión de chatarra. Al trabajar con limallas de corte de perfiles, se obtuvo recuperaciones menores al 90 % debido al tamaño de partícula de la materia prima y la facilidad de oxidación (Yépez, 2010). 1.2. Reciclaje de empaques farmacéuticos tipo blister Los empaques blister son envases que contienen en su interior medicamentos. Existen dos tipos, el primero tiene una cavidad de plástico y el recubrimiento se constituye por plástico, papel y/o aluminio; el segundo, la cavidad y el recubrimiento son de aluminio (Pilchik, 2000). En la Figura 1, se observa la configuración básica de los empaques tipo blister. Los empaques blister se componen por el film formado, el material de cubierta, el recubrimiento de sellado térmico y las tintas de impresión. Generalmente, del 15 - 20 % corresponde al material de cubierta, mientras que del 80-85 % corresponde al film formado (Pilchik, 2000). El film formado es el material que aloja el producto, su selección depende de las propiedades y el grosor requerido para el empaque. Generalmente, el material más utilizado es el policloruro de vinilo (PVC) debido a su alta resistencia química, bajas permeabilidades a aceites, grasas y aromatizantes, excelente termoformalidad y bajo costo. Sin embargo, existen empaques blister que utilizan polipropileno (PP), tereftalato de polietileno (PET), clorotrifluoroelileno (CTFE) y cloruro de polivinilideno (PVDC) como film formado (Pilchik, 2000). El material de cubierta proporciona la base estructural del empaque además debe evitar la transferencia de vapor de agua al interior. Su selección depende del tamaño, forma y peso del producto. Generalmente suele ser una lámina de papel aluminio o una combinación de papel/aluminio o papel/PET/aluminio (Pilchik, 2000). El film formado y el material de cubierta son sellados mediante la aplicación de calor. El recubrimiento de sellado térmico asegura la resistencia a condiciones climáticas no favorables, resistencia a la abrasión, claridad y brillo (Pilchik, 2000). La problemática de reciclaje de los empaques tipo blister radica en los inconvenientes de tratamiento por incineración del PVC presente en el envase. Durante los procesos de incineración de PVC se genera dioxinas, razón por la cual el uso de este tipo de material plástico ha sido cuestionado durante los últimos años. La generación de este tipo de compuestos es considerada una amenaza tanto para la salud humana como para el medio ambiente por lo cual es necesario establecer una prevención de contaminación reduciendo la práctica de este tipo de procesos (Belliveau, 2003). Existen dos procesos orientados al tratamiento de productos que incluyen PVC en su composición. La recuperación de PVC de materiales compuestos mediante el proceso Vinyloop y la combustión en dos etapas con recuperación de HCl (Saeed, 2004; VinyLoop, 2013). El PVC a temperatura normal es resistente a ácidos, álcalis y sales corrientes. Sin embargo, al entrar en contacto con algunos disolventes como el benceno y la acetona, es atacado y como producto se tiene el material hinchado o esponjado (Nutsch, 2000). Los materiales rígidos de PVC al tener contacto con hidrocarburos aromáticos y clorados, cetonas, ésteres, esteres cíclicos, penetran en su estructura causando inflamación y reblandecimiento. La solubilidad es dependiente directa de la concentración del disolvente (González, 1997) 2. METODOLOGÍA 2.1. Caracterización física química y mineralógica de los empaques usados por la industria farmacéutica 2.1.1 Caracterización física Plástico termoformado Los empaques tipo blister fueron caracterizados físicamente mediante la determinación del contenido de humedad, volátiles, cenizas y carbón fijo. Para esto se utilizó los procedimientos basados en las normas ASTM D3173-87, ASTM D3174-12 y ASTM D3175-02. Producto Recubrimiento Figura 1. Configuración básica empaque blister (Pilchik, 2000). Modificado La caracterización del material polimérico se realizó por espectros de infrarrojo en el equipo SpectrumOne marca Perkin Elmer. Además, se determinó la densidad real y aparente. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 21 Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica _________________________________________________________________________________________________________________________ 2.1.2 Caracterización química La caracterización química de la lámina metálica de los empaques farmacéuticos tipo blister, se realizó mediante espectrofotometría de chispa en el equipo Bruker Q4 TASMAN en el laboratorio del Departamento de Metalurgia Extractiva de la Escuela Politécnica Nacional. Por su parte, el film plástico fue laminado en una prensa marca CAEVER, modelo 2112 -104 a 150°C bajo una presión de 20000 lb/plg2. Mediante el uso de un Espectrofotómetro de Infrarrojo por Transformadas de Fourier marca Perkin Elmer, modelo SpectrumOne, se corrió el espectro de la muestra por el método de transmitancia. El ensayo se realizó en el laboratorio del Centro de Investigación Aplicada a Polímeros de la Escuela Politécnica Nacional. Una vez transcurrido el tiempo se apaga la fuente de calentamiento, se retiran los cartuchos de celulosa y se extrae el material remanente en su interior. Finalmente se realiza la recuperación del solvente dentro del equipo de extracción soxhlet. Las láminas de aluminio recuperadas por lixiviación se analizaron químicamente, mediante espectrofotometría de chispa en el equipo Bruker Q4 TASMAN y mineralógicamente mediante difracción de rayos X (DRX) en el equipo D8 Advance Bruker, la cualificación y cuantificación de cada uno de los compuestos presentes en la muestra se determinó mediante el uso de los softwares EVA y TOPAS, respectivamente. Los análisis fueron realizados en el laboratorio del Departamento de Metalurgia Extractiva de la Escuela Politécnica Nacional. 2.3. Definición de las mejores condiciones del proceso de fusión utilizando sales de cloro y flúor 2.1.3 Caracterización mineralógica La caracterización mineralógica de la parte metálica de los empaques farmacéuticos tipo blister se realizó con el fin de determinar la naturaleza de los compuestos que lo conforman. El análisis se realizó mediante difracción de rayos X (DRX) en el equipo D8 Advance Bruker. La cualificación y cuantificación de cada uno de los compuestos presentes en la muestra se determinó mediante el uso de los softwares EVA y TOPAS, respectivamente. El análisis fue realizado en el laboratorio del Departamento de Metalurgia Extractiva de la Escuela Politécnica Nacional. 2.2. Definición de las mejores condiciones de lixiviación utilizando solventes orgánicos La metodología de lixiviación se estableció con base en el trabajo realizado por Estrella (2013). Los ensayos de lixiviación se realizaron con la finalidad de separar el material polimérico de la lámina de aluminio de los empaques tipo blister. Se utilizó un equipo de extracción soxhlet de marca Selecta con disponibilidad de 6 dispositivos con capacidad de solvente de 250 mL cada uno del laboratorio de Operaciones Unitarias del Departamento de Ingeniería Química de la Escuela Politécnica Nacional. Los ensayos se realizaron con acetona y acetato de n- butilo puros y en solución con etanol 25 % v/v y 50 % v/v. Los parámetros a variar fueron la concentración del solvente y el tiempo de lixiviación. Los parámetros constantes fueron la cantidad de solvente (200 mL), la cantidad de empaque (4 g) y la temperatura de trabajo (temperatura de ebullición de cada solvente). Para cada ensayo se tomaron 4 g de empaque tipo blister, se introdujeron en cartuchos de celulosa, adicionando 200 mL del solvente. El equipo se prende hasta llegar a la temperatura de ebullición del solvente. A partir de la primera gota de destilado se toma el tiempo de lixiviación. Los ensayos se realizan durante 30, 60, 90, 120, 150 y 180 min. La metodología utilizada que se realizó fue establecida con base en el trabajo realizado por Estrella (2013) y Yépez (2010). Los ensayos de fusión de las láminas de aluminio previamente recuperadas por lixiviación, se realizaron en una mufla eléctrica marca Lindberg/Blue M modelo BF51728C-1 de 0,064 m3 de capacidad. Todos los ensayos de fusión utilizaron 2 g de láminas de aluminio previamente compactadas en una prensa hidráulica (400 kg/cm2) colocadas en un crisol de barro. Se definió las mejores condiciones de fusión sobre la recuperación de aluminio variando la composición molar de sales fundentes, porcentaje de carga, variación de temperatura y tiempo. 2.3.1 Evaluación de la composición de las sales dentro de la carga fundente Para la determinación de la concentración de las sales dentro de la carga fundente, se varió la composición molar de NaCl y KCl, como se muestra en la Tabla 1. Los ensayos se realizaron durante 2 h a una temperatura de 750 °C y con el 200 % de carga fundente. Tabla 1. Variación de la composición molar de las sales NaCl y KCl en los ensayos de fusión Ensayo 1 2 3 4 5 6 7 8 9 10 11 NaCl KCl 100 90 80 70 60 50 40 30 20 10 0 0 10 20 30 40 50 60 70 80 90 100 La carga fundente que reportó mayor recuperación de aluminio fue utilizada para los ensayos posteriores. 2.3.2 Evaluación del porcentaje de carga fundente necesario Con el fin de evaluar el porcentaje de carga fundente se realizaron un total de 5 ensayos. Se trabajó con porcentajes Revista Politécnica - Marzo 2016, Vol. 37, No. 2 22 Erazo Clara1; de la Torre Ernesto1; Endara Diana1 _______________________________________________________________________________________________________________________________ de 100, 200, 300 y 400 % de carga fundente. Además, se evaluó el proceso sin tomar en cuenta carga fundente. Para estos ensayos se mantuvieron constantes los parámetros de tiempo (2 h), temperatura (750 °C), composición de las sales (definida en el punto 2.3.1). La cantidad de carga fundente que reportó mayores valores de recuperación fue utilizada en los ensayos posteriores. 2.3.3 Influencia de la variación de temperatura La determinación de la influencia de la variación de la temperatura se realizó manteniendo constantes los parámetros de tiempo (2 h), composición de sales fundentes (definida en el punto 2.3.1) y la cantidad de carga fundente (definida en el punto 2.3.2). Se analizaron ensayos de fusión dentro de un rango de temperatura de 650 °C a 850 °C, en intervalos de 50 °C cada uno. La temperatura que reportó el valor más alto de recuperación de aluminio se fijó en los ensayos posteriores. 2.3.4 Influencia de la variación del tiempo de fusión La determinación del tiempo de fusión se realizó manteniendo constantes los parámetros de composición de sales fundentes (definida en el punto 2.3.1) y la cantidad de carga fundente (definida en el punto 2.3.2) y temperatura (definida en el punto 2.3.3) Se realizaron un total de 10 ensayos de fusión durante 2,50 h en intervalos de 0,25 h cada uno. El tiempo de fusión que reportó el valor más alto de recuperación de aluminio fue utilizado en los ensayos posteriores. 2.3.5 Influencia de la adición de fluoruro de potasio (KF) Para la determinación de la influencia de la adición de fluoruro de potasio (KF) a la carga fundente se realizaron dos ensayos. Se mantuvo constantes los parámetros que reporten mayor recuperación de aluminio de los ensayos anteriores: la composición de la carga fundente (definida en el punto 2.3.1), porcentaje de carga (definida en el punto 2.3.2), temperatura (definida en el punto 2.3.3) y tiempo (definida en el punto 2.3.4). La adición de KF se realizó en porcentajes de 5 % y 10 % con respecto a la carga fundente inicial. Se analizó la influencia de la adición de este reactivo en la recuperación de aluminio metálico. equipo D8 Advance Bruker de la Escuela Politécnica Nacional. 3. RESULTADOS Y DISCUSIÓN A continuación, se presentan los resultados al realizar la metodología planteada en la sección 2. 3.1. Resultados de la caracterización física, química y mineralógica de los empaques usados por la industria farmacéutica 3.1.1 Resultados de la caracterización física La humedad promedio de los empaques farmacéuticos blister es de 5,13 %. El material volátil tiene un valor promedio de 75,89 %, la temperatura bajo la cual se realiza el análisis (750 °C) asegura que el material volátil es removido; por tanto, este valor representa el material polimérico contenido en el empaque. El porcentaje promedio de cenizas fue de 17,95 %, dicho valor representa el aluminio metálico en adición a las tintas impregnadas sobre él. Finalmente, el porcentaje promedio de carbón fijo fue de 6,16 %. La densidad aparente de los empaques tipo blister, es decir sin comprimir, tiene un valor de 0,07 g/cm3, lo cual refleja que ocupan una gran cantidad de volumen. La densidad real reportó un valor de 1,42 g/cm3. 3.1.2 Resultados de la caracterización química El material metálico de los empaques tipo blister posee 98,65 % de aluminio (Al) y 1,15 % de hierro (Fe) como elementos principales. Por su parte, el material polimérico (transparente y naranja) analizado por espectros de infrarrojo corresponde a PVC. 3.1.3 Resultados de la caracterización mineralógica El análisis por DRX muestra la obtención de 99 % de aluminio metálico. En la Figura 2, se observa el difractograma de rayos X obtenido. SIN LIXIVIAR 400 La caracterización química del producto obtenido por fusión, se realizó mediante espectrofotometría de chispa en el equipo Lin (Counts) 300 2.3.6 Caracterización del producto obtenido por fusión 200 100 Bruker Q4 TASMAN. Además, la muestra metálica obtenida fue analizada en un microscopio electrónico de barrido (MEB), de marca Tescan Vega. Los ensayos fueron realizados en el laboratorio del Departamento de Metalurgia Extractiva de la Escuela Politécnica Nacional. 0 4 10 20 30 40 50 60 70 2-Theta - Scale SIN LIXIVIAR - File: RM-7532 M1.raw - Type: 2Th/Th locked - Start: 3.000 ° - End: 70.000 ° - Step: 0.020 ° - Step time: 1. s - Temp.: 27 °C - Time Started: 15 s - 2-Theta: 3.000 ° - Theta: 1.500 ° - Chi: 0.0 Operations: Y Scale Norm 1.036 | Background 0.000,1.000 | Import 00-004-0787 (*) - Aluminum, syn - Al - Y: 62.51 % - d x by: 1. - WL: 1.5406 - Cubic - I/Ic PDF 3.6 - S-Q 100.0 % - Figura 2. Difractograma de rayos X de la lámina metálica del empaque tipo blister La caracterización mineralógica del producto obtenido por fusión, se realizó por difracción de rayos X (DRX) en el Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica _________________________________________________________________________________________________________________________ 3.2 Resultados de la definición de las mejores condiciones de lixiviación utilizando solventes orgánicos (acetona y acetato de n-butilo) En esta sección se presentan los resultados de los ensayos de lixiviación realizados a los empaques farmacéuticos tipo blister, de acuerdo a la metodología planteada en la sección 2.2. Estos ensayos se realizaron con la finalidad de separar la capa metálica del material polimérico. En la Figura 3, se muestra el comportamiento de lixiviación de empaques tipo blister, al utilizar acetona y acetato de nbutilo como solventes a diferentes concentraciones. La evaluación se realizó durante 180 min en intervalos de 30 min cada uno. De acuerdo a los resultados experimentales, se puede observar que el proceso de separación de la capa metálica de la polimérica se logra únicamente al utilizar solventes puros. Tanto para la acetona como para el acetato de n- butilo se alcanza una pérdida de masa de aproximadamente el 80 % a los 150 min de lixiviación. A partir de este tiempo los valores se mantienen constantes. El producto obtenido son láminas metálicas. El porcentaje de pérdida de masa disminuye durante el proceso de lixiviación al utilizar solventes diluidos con alcohol etílico. Como se puede observar, se logran recuperaciones máximas de alrededor del 40 % para los solventes diluidos al 50 % v/v y del 18 % para solventes diluidos al 25 % v/v. 23 Los ensayos realizados muestran que el mejor proceso de lixiviación de empaques tipo blister, es aquel que utiliza acetato de n- butilo al 98 % durante un tiempo de 150 min. Se realizó un ensayo reutilizado el solvente sometido a lixiviación. El resultado refleja que la eficiencia del proceso no disminuye debido a que la destilación asegura la separación del material polimérico disuelto y el solvente. El análisis químico realizado por espectrofotometría de chispa muestra que las láminas obtenidas como producto de la lixiviación poseen 98,57 % de Al y 0,73 % de Fe como elementos principales. Por su parte, respecto al análisis mineralógico del producto, la difracción de rayos X reportó un valor de 99 % de Al metálico. 3.3 Resultados de la definición de las mejores condiciones del proceso de fusión utilizando sales de cloro y flúor Se presentan los resultados obtenidos para los procesos de fusión de acuerdo a la metodología de la sección 2.3. 3.3.1 Resultados de la concentración de las sales dentro de la carga fundente En la Figura 4, se muestra los porcentajes de recuperación de aluminio al variar la composición molar de la carga fundente. El porcentaje de mayor recuperación reportado fue al utilizar una carga fundente de composición molar: 60 % de NaCl y 40 % KCl. 100 80 Pérdida de masa (%) Lixiviación con acetona 98% Lixiviación con acetato de nbutilo 98% 60 Lixiviación con acetona 50% etanol 50% Lixiviación con acetato de nbutilo 50% - etanol 50% 40 Lixiviación con acetona 25% etanol 75% 20 Lixiviación con acetato de nbutilo 25% - etanol 75% 0 0 30 60 90 120 150 Tiempo de lixiviación (min) 180 Figura 3. Porcentaje de pérdida de masa de empaques farmacéuticos tipo blister sometidos a procesos de lixiviación con acetona y acetato de n- butilo al 98 % de pureza y en solución con etanol al 50 % v/v y 25 % v/v. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Porcentaje de Recuperación (%) 24 Erazo Clara1; de la Torre Ernesto1; Endara Diana1 _______________________________________________________________________________________________________________________________ 3.3.3 Influencia de la variación de temperatura 70 60 50 40 30 20 10 0 En la Figura 6, se puede observar que el porcentaje de recuperación de la fase metálica tiene un comportamiento creciente hasta llegar aun valor máximo, correspondiente a 750 °C; después de éste, la tendencia se vuelve decreciente. 0 10 20 30 40 50 60 70 80 Composición molar de NaCl (%) 90 100 Figura 4. Porcentaje de recuperación de la fase metálica respecto a la composición molar de NaCl al realizar procesos de fusión de láminas de aluminio 3.3.2 Resultados de la definición del porcentaje de carga fundente En la Figura 5, se muestra el porcentaje de recuperación de la fase metálica respecto al porcentaje de carga fundente utilizada. Se puede observar que el porcentaje de recuperación de la fase metálica tiene un comportamiento creciente hasta llegar a un valor máximo, después de éste la tendencia se revierte y toma un sentido decreciente. Debido a la alta reactividdad del aluminio con el oxígeno y la humedad, al realizar el ensayo de fusión en ausencia de sales fundentes, no se logra tener recuperación de fase metálica. El porcentaje de recuperación de la fase metálica al trabajar con 100 % de porcentaje de carga fundente se eleva a 55,82 %. Al realizar la fusión a 650 °C, no se logra tener recuperación de fase metálica, debido a que las sales no alcanzan el punto de fusión. El material se oxida en su totalidad por lo cual no se evidencia fase metálica. El punto de fusión del aluminio es de 660 °C, por lo cual no se produce el cambio de fase a dicha temperatura. Al trabajar a 700 °C, se logra una recuperación de la fase metálica de 41,93 %. La recuperación aumenta con el incremento de la temperatura a 750 °C, alcanzando una recuperación del 64,94 %. Sin embargo, al trabajar a 800 °C y 850°C, los valores disminuyen a 39,66 % y 35,65 %, respectivamente. Según Aspin (1995), al trabajar bajo temperaturas de fusión elevadas se perjudica la recuperación del aluminio. Esto sucede debido a que el aluminio fundido al permanecer a temperaturas elevadas empieza a generar mayores cantidades de óxidos. Por esta razón, las recuperaciones de menor valor se tienen al trabajar a temperaturas superiores a 800°C. 3.3.4 Determinación del tiempo de fusión La disminución en el porcentaje de recuperación de la fase metálica usando 100 % de carga fundente, respecto a la obtenida al usar 200 % (64,94 % de recuperación), se debe a que bajo las primeras condiciones, dentro del crisol, no se logra cubrir el material metálico en su totalidad, lo cual favorece procesos de oxidación con el ambiente. Porcentaje de Recuperación (%) Al utilizar porcentajes de carga fundente de 300 % y 400 % el porcentaje de recuperación de la fase metálica decrece a 49,59 % y 45,87 %, respectivamente, debido a que la carga fundente no alcanza el punto de fusión, por lo cual no logra formar la capa protectora que evita la formación de óxido. Como se muestra en la Figura 7, el porcentaje de recuperación de la fase metálica hasta las 0,75 h de fusión es igual a 0, las láminas permanecen compactadas como fueron ingresadas al crisol. Es decir, son procesos ineficientes en los que no se logra la fusión. A partir de este valor, el comportamiento es creciente respecto al tiempo hasta las 1,75 h, se observa el aparecimiento de una fase metálica. Además, las sales fundentes presentan una tonalidad opaca lo cual refleja que han sido fundidas. A partir de este valor la tendencia se vuelve constante. Porcentaje de Recuperación (%) 70 60 50 40 30 20 10 0 0 100 200 300 400 Porcentaje de carga fundente Figura 5. Porcentaje de recuperación de la fase metálica respecto al porcentaje de carga fundente al realizar procesos de fusión de láminas de aluminio El porcentaje de carga fundente que reportó mayor recuperación de aluminio corresponde a 200 % respecto a la carga sometida a fusión, este valor fue utilizado para los ensayos posteriores. 70 60 50 40 30 20 10 0 650 700 750 800 850 Temperatura de fusión (°C) Figura 6. Porcentaje de recuperación de la fase metálica respecto al porcentaje de carga fundente al realizar procesos de fusión de láminas de aluminio Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Aluminio a partir de Empaques Farmacéuticos tipo blister usados por la Industria Farmacéutica _________________________________________________________________________________________________________________________ Como se puede observar el material presenta uniformidad en la superficie, lo que indica una buena fusión. Las grietas que se muestran son el resultado del proceso de lijado. 70 Porcentaje de recuperación (%) 25 60 50 En la Figura 9, se muestra la distribución de los elementos dentro de la superficie analizada. Como se observar, la mayor cantidad de material corresponde a Al con la presencia de impurezas de Fe distribuidos de forma uniforme dentro de la muestra. 40 30 20 10 0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 Tiempo de fusión (h) Figura 7. Porcentaje de recuperación de la fase metálica respecto al tiempo al realizar procesos de fusión de láminas de aluminio El tiempo de fusión de láminas de aluminio para lograr la mayor recuperación es de 1,75 h, correspondiente al 65,01 %. 3.3.5 Resultados de la influencia de la adición de fluoruro de potasio (KF) Los porcentajes de recuperación logrados al incorporar a la carga fundente 5 % y 10 % de KF fueron de 64,25 % y 64,04 %, respectivamente, es decir no se incrementa la recuperación. Según Totten y MacKenzie, (2003)., la adición de KF a la carga fundente permite la disminución de la tensión interfacial provocada entre la mezcla de sales y el aluminio fundido, y esto conlleva a un recubrimiento del metal que a su vez permite una mayor recuperación de aluminio metálico Sin embargo, en los ensayos realizados no se evidencia ningún cambio, esto puede ser explicado debido a la diferencia entre los puntos de fusión entre el KF y la mezcla NaCl – KCl, lo cual provoca la dificultad de formar una capa de revestimiento que impida la oxidación del Aluminio 3.3.6 Resultados de la caracterización mineralógica del aluminio obtenido química y El análisis químico realizado por espectrofotometría de chispa, muestra que el producto de fusión posee 98,45 % de Al y 0,76 % de Fe como elementos principales. En la Figura 8, se muestra una fotografía del producto metálico obtenido a 355 aumentos en el microscopio electrónico de barrido (MEB), mediante el uso del software VEGA-TESCAN, con microanalizador de rayos X BRUKER. Figura 9. Imagen reportada por microscopía electrónica al realizar análisis semicuantitativo de una muestra de aluminio fundido (355x) 4. CONCLUSIONES Los empaques farmacéuticos poseen valores promedio de humedad de 5,13 %, material volatil 75,89 % (correpondiente a PVC), cenizas 17,95 % (correspondiene a aluminio) y carbón fijo 6,16 %. La lámina de metalica está constitutida por 98,65 % de Al y 1,15 % de Fe. Presentan una densidad real de 1,42 g/cm3 y una densidad aparente de 0,07 g/cm3, por lo que una pequeña cantidad ocupa un gran volumen. El proceso de separación de la capa metálica de la polimérica requiere lixiviar los empaques farmacéuticos utilizando como solvente del PVC acetato de n- butilo al 98 % durante 150 min. Bajo dichas condiciones se tiene una pérdida de masa del empaque blister del 80,18 %; por tanto, el restante 19,82 % no lixiviado, corresponde a la fase metálica. El proceso de lixiviación utilizando como solvente acetona presenta una pérdida de masa del empaque del 80,41 %; es decir, el 19,59 % restante correspondiente al material metálico. Al utilizar solventes diluidos en la lixiviación de PVC, los procesos de separación de la capa metálica de la polimérica se vuelven ineficientes, con recuperaciones máximas del 40 %, debido a la diferencia en los puntos de ebullición de los componentes. El acetato de n- butilo recuperado por destilación puede ser recirculado al proceso de lixiviación. La eficiencia de separación no se ve alterada. Las condiciones de fusión planteadas para una recuperación del 65 % del aluminio metálico, establecen una composición molar de sales de 60 % NaCl y 40 % KCl, 200 % de carga fundente a 750 °C durante 1,75 h. Figura 8. Imagen reportada por microscopía electrónica a 355 aumentos de una muestra de aluminio fundido La adición de fluoruro de potasio (KF) a la carga fundente no incrementa el porcentaje de recuperación de la fase metálica Revista Politécnica - Marzo 2016, Vol. 37, No. 2 26 Erazo Clara1; de la Torre Ernesto1; Endara Diana1 _______________________________________________________________________________________________________________________________ durante los procesos de fusión. Esto se debe a la diferencia a la diferencia entre los puntos de fusión del KF y la mezcla NaCl – KCl. El producto metálico de fusión esta compuesto por 98,45 % de Al y 0,76 % de Fe como elementos principales. Schlesinger, M. (2013). Aluminum Recycling (2da. ed.). New York, Estados Unidos: Taylor & Francis Group. Totten G. y MacKenzie D. (2003). “Handbook of Aluminum”, Editorial Marcel Dekker, Inc., Nueva York, Estados Unidos, Volumen 1, pp.36-37, Volumen 2, pp.116-165. VinyLoop. (2013). The VinyLoop http://www.vinyloop.com, (octubre, 2014). La propuesta planteada además de ser una alternativa técnica de recuperación de materiales de interés, representa una posible solución al problema medio ambiental de disposición de este tipo de residuos. RECONOCIMIENTO Al Departamento de Metalurgia Extractiva (DEMEX) de la Facultad de Ingeniería Química y Agroindustria de la Escuela Politécnica Nacional del Ecuador. REFERENCIAS Aspin, T. (1995). Principios de fundición. México: Gustavo Gili, 1995, p. 80 ASTM D3173-87. (1996). Standard Test Method for Moisture in the Analysis Sample of Coal and Coke. Estados Unidos. ASTM D3174-12. (2012). Standard Test Method for Ash in the Analysis Sample of Coal and Coke from Coal. Estados Unidos. ASTM D3175-02. (2002). Standard Test Method for Volatile Matter in the Analysis Sample of Coal and Coke. Estados Unidos. Belliveau, M. (2003). Dioxin pollution prevention and pvc plastic in municipal solid waste: Precautionary state policy. Recuperado de http://www.chej.org/ppc/docs/pvc_polyvinyl_chloride_or_vinyl/PVC_MBB EH.pdf (octubre, 2014) Endara, D. (2008). Recuperación de Aluminio de los envases y empaques usados por la Industria de Alimentos y Farmacéutica. (Tesis previa a la obtención de grado de Master en Metalurgia Extractiva y Medio Ambiente). Escuela Politécnica Nacional, Quito, Ecuador. Estrella, F. (2013). Diseño de una planta para la recuperación de Aluminio de envases multicapa mediante lixiviación con solventes orgánicos y fundición. . (Proyecto previo a la obtención de título de Ingeniero Químico). Escuela Politécnica Nacional, Quito, Ecuador. González, M. (1997). Propiedades químicas y propiedades físicas de los polímeros. Universidad Politécnica de Madrid. Recuperado de: http://ruc.udc.es/bitstream/2183/9641/1/CC_32_art_3.pdf, (octubre, 2014) Nutsch, W. (2000). Tecnología de la Madera y el Mueble. (1era. ed.). España: Reverté. Pilchik, R. (2000a). Pharmaceutical Blister Packaging, Part I: Rationale and Materials. Pharmaceutical Technology, 68-77. Recuperado de http://www.pharmanet.com.br/pdf/blister.pdf (septiembre, 2014) Román, F. (1992). Introducción a la recuperación y reciclado de los metales no férreo. Instituto Tecnológico Geominero de España. (1era. ed.) Madrid, España. Rubinos, D. (2007). Utilización de lodos rojos de bauxita en la contención e inactivación de residuos tóxicos y peligrosos. (Tesis Doctoral – Departamento de Edafoloxía y Química Agrícola). Universidad de Santiago de Compostela, Santiago de Compostela, España. Saeed, L. (2004). Experimental assessment of two-stagecombustion of high pvc solid waste with HCl recovery, Helsinki University of Technology, Department of Mechanical Engineering, Finlandia. Recuperado de https://aaltodoc.aalto.fi/bitstream/handle/123456789/2427/isbn9512271516.p df?sequence=1, (octubre, 2014) Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Process. Recuperado de Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada _________________________________________________________________________________________________________________________ 27 Diseño de una Planta Piloto para la Obtención de Aluminato de Sodio Mediante el Método de Precipitación Controlada Vallejo Fidel1; Mera Luis2; Lascano Luis3 2 1 Escuela Politécnica Nacional, Carrera de Ingeniería Química, Quito, Ecuador Escuela Politécnica Nacional, Departamento de Ingeniería Química, Quito, Ecuador. 3 Escuela Politécnica Nacional, Departamento de Física, Quito, Ecuador. Resumen: En este trabajo se ha sintetizado aluminato de sodio por el método de Precipitación Controlada (MPC). Se determinó que un precursor adecuado para obtener aluminato de sodio es el nitrato de aluminio 2,0 M, que fue llevado a un pH de 11,25 mediante la adición como agente precipitante de hidróxido de sodio 2,0 M a 10 mL/min. El polvo precipitado fue sometido a un tratamiento térmico a 900 °C por una hora. El polvo obtenido fue caracterizado por DRX y MEB, los resultados indican que se obtuvo un tamaño promedio de partícula de 9 micras. Además, se realizó el diseño y el análisis económico preliminar de una planta piloto para la producción de 100 kg/semana de aluminato de sodio. El proceso en planta consta de la reacción del nitrato de aluminio 2,0 M con el hidróxido de sodio 2,0 M, la sedimentación del precipitado, el secado en bandejas horizontales por convección y la calcinación en un horno programable. Se realizaron los diagramas de bloque y de flujo del proceso, y la distribución en planta de los equipos y de las áreas de almacenamiento previstas. Finalmente se estimó la tasa interna de retorno (TIR) en dos casos extremos. Palabras claves: Aluminato de sodio; diseño de plantas químicas; nitrato de aluminio; curva potenciométrica Plant design for Sodium Aluminate Production by Controlled Precipitation Method Abstract: In this work, sodium aluminate was obtained by Controlled Precipitation Method. The optimum precursor was aluminum nitrate 2,0 M, that reaches a pH of 11,25 by the addition of sodium hydroxide 2,0 M which rate is 10 mL/min. After this the dry powder was subjected to a heat treatment at 900 ºC for 1 hour. The resulting powder was characterized by XDR and SEM, the results indicate that sodium aluminate had an average particle size of 9 microns. The second part includes the design and preliminary economic analysis of a pilot plant for the production of 100 kg/week of sodium aluminate. The global process involves the reaction of aluminum nitrate with sodium hydroxide, sedimentation of the precipitate solids, the drying in horizontal trays and calcination in a convective oven. In this section, the flow diagram, the block diagram and the layout were made. Finally, IRR was calculated considering two extreme cases. Keywords: Sodium aluminate; chemical plant design; aluminum nitrate; potentiometric curve 1 1. INTRODUCCIÓN El aluminato de sodio ha sido obtenido mediante procesos tradicionales tales como síntesis hidrotérmica, reacción en estado sólido y descomposición térmica. Cao, Y. Zhang y Y. Zhang (2009), presentaron un estudio sobre la preparación de aluminato de sodio a partir de la lixiviación de bauxita en soluciones concentradas de NaOH, en el cual el producto final es un aluminato de sodio hidratado. En dicho estudio se explica el método de reacción en estado sólido para producir aluminato de sodio anhidro, mediante el cual una mezcla de carbonato de sodio y bauxita o hidróxido de aluminio se calcina en hornos rotatorios a 1000 °C. Otra posibilidad, según esta misma fuente, consiste en secar una solución acuosa de aluminato de sodio proveniente del proceso Bayer, en lechos fluidizados (Rai et al., 2012) Contreras, Sugita y Ramos (2006) reportan la posibilidad de sintetizar aluminato de sodio a partir de sulfato de sodio básico tratado con carbonato de sodio, que permite la formación de dawsonita de sodio que, a su vez, se somete a diferentes temperaturas entre los 600 y 1100 °C durante 30 minutos. [email protected] Revista Politécnica - Marzo 2016, Vol. 37, No. 2 28 Vallejo Fidel1; Mera Luis2; Lascano Luis3 ______________________________________________________________________________________________________________________________ López et al. (2011) señalan que, para la obtención de las zeolitas sintéticas se parte de una solución precursora de aluminato de sodio en una solución de hidróxido de sodio, la cual se añade de manera lenta a una solución de sílice. Posteriormente, se calienta a 190 °C durante 24 h, se procede a un filtrado y a un tratamiento térmico final para darle su estructura definitiva a la zeolita. El método de precipitación controlada para sintetizar polvo cerámico permite un buen control de las características del polvo final obtenido y una buena reproducibilidad del proceso experimental, pues las variables de control son de una índole más simple que en los otros métodos de síntesis, ya que no involucra una excesiva preparación de las muestras ni condiciones extremas de operación, como altas presiones (Rodríguez, 2001; Segal, 1997). En el Ecuador, la Escuela Politécnica Nacional a través del Departamento de Física ha empleado el método de precipitación controlada para la obtención de óxidos simples de compuestos metálicos (Berrones y Lascano, 2012; Herrera, Cadena y Lascano, 2012). 2.2.2. Preparación de soluciones a partir de dos precursores Precursor nitrato de aluminio La solución 0,1 M de nitrato de aluminio se preparó pesando 1,875 g que se aforaron con agua destilada en un matraz de 50 mL . A esta solución se adicionó sosa cáustica 2,0 M (preparada con 80 g en un recipiente de 2000 mL), a una tasa de 0,5 mL/min con un dosificador Metrohm. La curva potenciométrica del sistema se obtuvo mediante el registro del cambio de pH en función del volumen añadido de la base. Precursor isopropóxido de aluminio Una cantidad de 20,4 g de isopropóxido de aluminio se pesaron para obtener una solución 0,1 M al aforar en un matraz de 250 mL . La adición de sosa cáustica y la obtención de la curva potenciométrica se realizaron de la misma manera que en el caso anterior. El pH óptimo para la finalización de la reacción se determinó mediante el análisis de la curva potenciométrica. 2.3 Caracterización del polvo sintetizado En este trabajo se ha sintetizado el óxido doble de aluminato de sodio por el método antes mencionado. Si bien Ruiz y Rodríguez (2010) han realizado un trabajo similar de síntesis de aluminato de sodio por el MPC, el presente trabajo aborda dos aspectos: la comparación de la síntesis de dicho compuesto con dos tipos de precursores a nivel de laboratorio y, previo escalamiento, el diseño de una planta piloto para la producción de aluminato de sodio. La producción local de materiales sintéticos de alta pureza es un reto para el Ecuador, de ahí la importancia de hacer diseños de plantas industriales que utilicen procesos validados en el laboratorio. 2. MATERIALES Y MÉTODOS 2.1 Materiales 2.4 Diagramas de bloque, de flujo y layout del proceso Todos los reactivos químicos empleados fueron de calidad analítica. El agua fue destilada antes de su utilización. Como precursores se utilizaron nitrato de aluminio nonahidratado e isopropóxido de aluminio de Aldrich Chemistry, e hidróxido de sodio de Riedel-de-Haên como agente precipitante. 2.2 Síntesis de aluminato de sodio por el método de precipitación controlada 2.2.1. Se obtuvieron difractogramas de rayos X de todas las muestras calcinadas con un equipo Norelco Philips, con el fin de identificar las fases presentes. Se buscó determinar si el aluminato de sodio es fase mayoritaria en el polvo cerámico mediante la comparación de los picos del difractograma con la base bibliográfica PDF2 del Centro Internacional de Cristalografía. Para ello, las muestras se almacenaron en envases herméticos debido al carácter higroscópico que se observó en ellas. A la muestra con mayor fase de aluminato de sodio se la caracterizó mediante microscopía electrónica de barrido (equipo Tescan Vega II LMU) con el fin de conocer el tamaño y la morfología de las partículas. Diseño de los experimentos Se eligieron como variables de análisis el precursor: nitrato de aluminio e isopropóxido de aluminio; la temperatura final de calcinación: 600, 900 y 1200 ºC, y la duración de la meseta en el tratamiento térmico: 1 y 1,5 horas. Una vez determinados el precursor y el tratamiento térmico óptimos, se procedió a aumentar la concentración del mejor precursor a 1,0 M y 2,0 M. Además, se aumentó la tasa de adición del hidróxido de sodio 2,0 M desde 5 mL/min hasta 10 mL/min. 2.4.1. Diagrama de bloque Para la síntesis de aluminato de sodio, la solución precursora y el agente precipitante se añaden a un reactor con agitación electromecánica. Una vez que el sistema ha alcanzado el pH adecuado según el análisis de la curva potenciométrica, la solución se transporta a la siguiente etapa que consiste en la separación sólido - líquido. Luego, el polvo seco se calcina en un horno en las condiciones óptimas ya determinadas para obtener aluminato de sodio. El diagrama se muestra en la Figura 1. 2.4.2. Diagrama de flujo La forma de operación de la planta sería en la modalidad por lotes, y el dimensionamiento de los equipos se realizó para que se produzcan 100 kg por semana de aluminato de sodio en una sola carga. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada _________________________________________________________________________________________________________________________ 29 el nivel de confianza del análisis económico es de alrededor del 30 % del costo total determinado. 3. RESULTADOS Y DISCUSIÓN 3.1. Síntesis y caracterización del aluminato de sodio 3.1.1. Análisis de las curvas potenciométricas Figura 1. Diagrama de bloque: Proceso de obtención del aluminato de sodio Reacción del precursor con el agente precipitante En la primera parte del diagrama de flujo, que corresponde a la reacción, se determinaron los volúmenes necesarios de la solución precursora y del agente precipitante que deben ingresar al reactor. Separación sólido-líquido Se debe separar el solvente residual, porque el producto de la reacción de precipitación debe estar seco antes de ingresar a la última etapa del proceso, que es la calcinación (Nonhebel y Moss, 2002). Calcinación En las Figuras 2 y 3 se presentan las curvas potenciométricas obtenidas con los precursores nitrato de aluminio e isopropóxido de aluminio, respectivamente. La importancia del control del pH radica en que, si es muy bajo, puede producirse una precipitación incompleta porque el sistema se queda en la etapa de formación y crecimiento de los complejos y, en caso contrario, si es muy alto se pueden redisolver las especies presentes (Ruiz y Rodríguez, 2010). En la curva potenciométrica de la Figura 2 se identifican cuatro zonas definidas por el cambio de pendiente. En la primera zona la sosa cáustica se neutraliza con los iones nitrato presentes en solución, la segunda zona representa el inicio de la nucleación, alcanzando su desarrollo final en la tercera zona y la saturación del sistema en la cuarta, a un pH de 11,25. En la curva potenciométrica de la Figura 3 se diferencian 3 zonas, las mismas que presentan un aumento leve de pH con gran consumo de agente precipitante. La zona de estabilización del pH que indica la saturación del sistema corresponde a valores de pH mayores que 12.4 unidades. Se determinó el rendimiento en la calcinación a partir de los datos de masa inicial que entra al horno y masa final que corresponde al aluminato de sodio. Con el valor de los sólidos totales y este rendimiento, se determinaron los valores de los volúmenes de solución iniciales que deben ingresar al reactor, dato que permitió la selección de las bombas necesarias para transportar el fluido desde los tanques de pre-mezcla. 2.4.3. Distribución de los equipos en planta Se procedió a dimensionar los equipos necesarios para el proceso con los valores de las corrientes obtenidos mediante un balance de masa y energía, y se realizó la distribución de los mismos en la planta piloto (Foust et al., 2000). Se consideraron espacios para las bodegas de almacenaje de producto terminado y de materia prima, así como espacios para reuniones y oficinas, alcanzado un área total de 100 m2, aproximadamente. Figura 2. Curva potenciométrica del sistema Al(NO3)3.9H2O 0,1 M – NaOH 2,0 M 2.5 Estudio económico preliminar del costo del aluminato de sodio Una vez determinados los costos de los equipos necesarios para el procesamiento mediante cotización directa con proveedores, se procedió a calcular los valores de la inversión en instalaciones auxiliares y construcciones mediante el uso de porcentajes típicos en la industria química (Peters, Timmerhaus y West, 2003; Towler y Sinnot, 2008). Los costos de materia prima y de venta del producto terminado se obtienen de casas comerciales. Debido a que el objetivo del trabajo fue realizar un análisis preliminar de la planta piloto, Figura 3. Curva potenciométrica del sistema C9H21AlO3 0,1 M–NaOH 2,0M Si se comparan las curvas potenciométricas de las soluciones de nitrato de aluminio y de isopropóxido de aluminio se distinguen las siguientes diferencias: Revista Politécnica – Marzo 2016, Vol. 37, No. 2 30 Vallejo Fidel1; Mera Luis2; Lascano Luis3 ______________________________________________________________________________________________________________________________ El pH de la solución de nitrato de aluminio debe ser llevado desde 3,1 hasta 11,25, mientras que el pH del isopropóxido de aluminio debe alcanzar mínimo 12,4, partiendo de 8,4; por lo que la cantidad de NaOH necesario en el último caso es menor para un volumen de solución precursora inicial equivalente. Mientras la zona de formación y crecimiento de los núcleos en el caso del nitrato de aluminio abarca el rango de pH comprendido entre 3,8 y 10,2 unidades, cuando se utiliza isopropóxido de aluminio dicha región se encuentra entre el 9,5 y el 12. Esto explicaría la diferencia entre los resultados obtenidos en ambos casos, ya que se requiere que el sodio forme parte de la estructura final del compuesto precipitado, y en el caso del isopropóxido la cantidad de sodio que presenta el sistema antes de la calcinación es baja. 3.1.2 Determinación de las fases cristalinas presentes En las Figuras 4 y 5 se presentan los difractogramas de los polvos cerámicos obtenidos con cada precursor y tratados a 900 °C durante 1 hora. Se observa que con el precursor nitrato de aluminio (Figura 4) se obtiene aluminato de sodio como fase mayoritaria, lo que no ocurre al utilizar el isopropóxido de aluminio como precursor (Figura 5), donde además la cristalización es baja. Analizando con mayor profundidad el hecho precedente, y según lo señalado en el numeral anterior, si se comparan las cantidades de solución de hidróxido de sodio necesarias para estabilizar el sistema en cada caso se tiene que para el nitrato de sodio se necesitaron 9,5 mL para 50 mL de solución precursora, y en el caso del isopropóxido de aluminio se requirieron 5 mL en 250 mL de solución inicial. Esto significa el 19 % para el primer caso y el 2 % para el segundo. Este hecho ratifica que una de las probables razones que explicaría el no haber obtenido aluminato de sodio como fase mayoritaria en el polvo cerámico procesado a partir de isopropóxido de aluminio, fue la cantidad insuficiente de sodio en el polvo precipitado final. 3.1.3 Estudio de la concentración inicial del precursor nitrato de aluminio Se procedió a variar la concentración del nitrato de aluminio en la solución inicial hasta valores de 1 M y 2 M, manteniendo el tratamiento térmico óptimo previamente determinado. Se espera que la cristalización del compuesto sea similar a la obtenida con la concentración inicial de 0,1 M pues el proceso de calcinación involucra, en forma general, la salida del agua y la formación del nuevo compuesto; ambos factores no dependen de la masa tratada sino del sistema total. Experimento PTC1 Para preparar 50 mL de solución 1,0 M de nitrato de aluminio se pesaron 18,75 g. Las condiciones del experimento se mantuvieron iguales a las de los anteriores experimentos, excepto la velocidad de adición que se aumentó a 10 mL/min para aumentar la productividad por lotes y disminuir la cantidad de solvente a separar del polvo precipitado. Figura 4. Difractograma del polvo cerámico sintetizado a partir de nitrato de aluminio Figura 5. Difractograma del polvo cerámico sintetizado a partir de isopropóxido de aluminio Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada _________________________________________________________________________________________________________________________ 31 Experimento PTC2 Para preparar 50 mL de solución 2,0 M de nitrato de aluminio se pesaron 37,50 g. La curva potenciométrica se muestra en la Figura 6. El pH inicial en este caso fue de 2,3, y la región de estabilización y sobresaturación se alcanzó a un pH de 11,26. Figura 6. Curva potenciométrica del sistema Al(NO3)3.9H2O 2 M– NaOH 2,0 M 3.1.4 Caracterización de las fases presentes En la Figura 7 se presenta el difractograma de rayos X correspondiente a la muestra PTC2. La coincidencia de picos con los de aluminato de sodio en las muestras con una concentración inicial de 1,0 M y 2,0 M es similar a la encontrada con una concentración inicial 0,1 M de precursor. En este caso, la condición experimental óptima es a partir de nitrato de aluminio con una concentración inicial de 2,0 M, que se somete a un tratamiento térmico que está conformado de una rampa de 10 °C/min, hasta los 900 °C y una meseta de una hora. 3.2. Microestructura del material sintetizado Para determinar el tamaño promedio de partícula se midió el diámetro de 20 partículas en cuatro micrografías obtenidas por MEB, una de ellas se muestra en la Figura 8. Los resultados proporcionan un tamaño de partícula promedio de 9 µm, con una desviación estándar de 2 µm, es decir, existe una dispersión significativa que expresa la heterogeneidad del tamaño de partícula. Figura 8. Micrografìa de polvo de aluminato de sodio sintetizado a partir de nitrato de aluminio a 900 °C y 1 h 3.3. Diagrama de flujo y distribución de equipos en planta piloto para la obtención de aluminato de sodio La Tabla 1 presenta los valores de las corrientes para cada lote del proceso de obtención de 100 kg/semana de aluminato de sodio en la planta piloto. Para el desarrollo del trabajo se consideró la presión atmosférica de Quito igual a 0,72 atm. El diagrama de flujo que se muestra en la Figura A1 del Apéndice presenta el código, el nombre y la descripción de los equipos necesarios para el proceso. 3.4. Análisis económico preliminar Los valores de los equipos necesarios han sido obtenidos en su totalidad de proveedores. En la Tabla A2 del Apéndice se presentan los equipos principales a instalar con sus características, la función que cumplen en el proceso y el costo en el año 2015. El valor total es parte del capital fijo a invertir, lo cual permite calcular el costo total mediante el método de los porcentajes estimados, como se indica en la Tabla A3 del Apéndice. Figura 7. Difractograma de la muestra obtenida en el experimento PTC2 Se analizan dos escenarios económicos. En el primero, el objetivo es encontrar un valor del producto terminado que genere una rentabilidad en la empresa, si los costos de la materia prima son los que se indican en la Tabla 2. En el segundo análisis se trata de encontrar el valor unitario del precursor que genere un rendimiento sobre la inversión Revista Politécnica - Marzo 2016, Vol. 37, No. 2 32 Vallejo Fidel1; Mera Luis2; Lascano Luis3 ______________________________________________________________________________________________________________________________ inicial, si el precio de venta del aluminato de sodio y de las otras materias primas son los indicados en la Tabla 2. Tabla 1. Propiedades de las corrientes del proceso # Descripción 1 Nitrato de aluminio Agua destilada Sosa cáustica Agua destilada Solución 2,0 M Nitrato de aluminio Solución 2,0 M Hidróxido de sodio Producto reactor Líquido claro Concentrados 2 3 4 5 6 7 8 9 10 11 12 13 Polvo seco Solvente residual Gases de calcinación Aluminato de sodio Estado de agregación Valor de la corriente (kg/semana) T (°C) Sólido 1 450,95 20 Líquido Sólido Líquido Líquido 909,22 33,80 420,00 2 360,17 20 20 20 20 Líquido 453,80 20 Líquido 2 813,97 20 Líquido Líquido + Sólido Sólido Vapor 2 308,19 505,78 20 20 350,00 155,78 90 91 Gas 250,00 900 Sólido 100,00 20 Tabla 2. Costos de compra y venta de materia prima y producto final Materia prima Nitrato de USD 88,27/kg aluminio Hidróxido de USD 1,06/kg sodio Agua destilada USD 0,80/kg Aluminato de USD 61,1/kg Producto sodio terminado En la Figura 9 se muestra la variación de la tasa interna de retorno (TIR) con respecto al precio de venta del aluminato de sodio manteniendo constante el precio de compra del precursor. Si se quiere que la TIR sea del 25 % se requiere un precio de venta del producto de USD 255,0/kg. En la Figura 10 se puede observar la variación de la TIR con la variación del costo del precursor si el valor de venta del aluminato de sodio es fijo. Para obtener una TIR del 25 % se requiere un costo de USD 27,4 por kilogramo de precursor. De esta figura se puede concluir también que para que exista un margen de ganancia, el valor del kg de material precursor debe encontrarse por debajo de los USD 34,3. Figura 9.Variación de la TIR con respecto al precio de venta del aluminato de sodio con el precio del precursor constante Figura 10.Variación de la TIR con respecto al costo del precursor con el precio de venta del aluminato de sodio constante 4. CONCLUSIONES Se obtuvo una fase mayoritaria de aluminato de sodio de estructura ortorrómbica mediante el método de precipitación controlada, a partir de una solución de nitrato de aluminio 2,0 M como precursor e hidróxido de sodio 2,0 M como agente precipitante. El tratamiento térmico óptimo determinado en este trabajo consta de una rampa de calentamiento de 10 °C/min, con una temperatura máxima de 900 °C por una hora. El tamaño de partícula promedio obtenido es de 9 micras según la caracterización por microscopía electrónica de barrido, aceptable en el mercado por comparación con el tamaño de partícula de otros coagulantes, como el sulfato de aluminio, que es de 150 micras. La variación de concentración inicial de la solución de nitrato de aluminio en el rango estudiado en el presente trabajo, de 0,1 a 2,0 M, no influyó en las fases presentes en el polvo final. Al parecer, esto se debe a que el proceso de obtención del aluminato de sodio depende en mayor medida del tratamiento térmico. Se ha realizado un diseño preliminar de una planta productora de aluminato de sodio, que trabaje con el método de síntesis de Precipitación Controlada. El costo total de los equipos necesarios para la producción de 100 kg/semana de aluminato de sodio, y que se cotizaron directamente con proveedores nacionales e internacionales, es de USD 28 504,70, y el costo total estimado de forma preliminar de la planta piloto es de USD 95 015,67, al año 2015. El proyecto no es rentable económicamente con los precios de las materias primas y producto terminado actuales, pues el precio de venta del aluminato de sodio no es mayor que el costo de compra de la materia prima necesaria. Por esta razón, si se mantiene constante el precio del precursor en USD 88,27/kg, el precio de venta necesario para que exista utilidad sería de USD 199,1/kg, y para que exista una TIR del 25 % debería ser de USD 255. Por otra parte, si el precio de venta se considera invariable en USD 61,1/kg el costo del precursor por kilogramo debe costar a lo máximo USD 34,3 y Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada _________________________________________________________________________________________________________________________ para una TIR igual o mayor que el 25 % el costo debe ser menor que USD 27,4/kg. REFERENCIAS Berrones, M. & Lascano, L. (2012). Síntesis de nanopartículas de hematita por el método de precipitación controlada. Revista Politécnica, 30(1), 91-99. Cao, S., Zhang, Y. & Zhang, Y. (2009). Preparation of sodium aluminate from the leach liquor of diasporic bauxite in concentrated NaOH solution. Hydrometallurgy, 98, 298-303 Campo, D., & Rodríguez, J. (2011). ZrO2 tetragonal obtenido por el método de precipitación controlada. Dyna, 78(165), 224-233. Contreras, C., Sugita, S., & Ramos, E. (2006). Preparation of Sodium Aluminate from Basic Aluminium Sulfate. Advances in Technology of Materials and Materials Processing Journal, 8(2), 122-129. Foust, A., Wenzel, L., Clump, C., Maus, L., & Andersen, L. (2000). Principios de Operaciones Unitarias. (2da.ed.), (F. Torres, Trad.) México D. F., México: Grupo Patria Cultural S. A. Herrera, E., Cadena, F. & Lascano, L. (2012). Estudio de la influencia del número de lavados y del tiempo de envejecimiento en la síntesis de nanopartículas de óxido de cinc por el método de Pecipitación Controlada. Revista Politécnica, 31(2), 41-50. López, C., Sazo, V., Pérez, P., Buhman, S., Urbina, C., & García, A. (2011). Generación de mesoporosidad en zeolitas ZSM-5 sintetizadas en medio orgánico. Avances en Química, 6(2), 29-37. Nonhebel, G., & Moss, A. (2002). El secado de los sólidos en la indutria química. (M. Terrizzano, Trad.) Barcelona, España: Reverté. Peters, M., Timmerhaus, K., & West, R. (2003). Plant Design and Economics (Quinta ed.). New York, USA: McGraw-Hill. Rai, S., Wasewar, K. L., Mukhopadhyay, J., Kyoo, C., & Uslu, H. (2012). Neutralization and utilization of red mud for its better waste management. Archives of Enviromental Science, 6, 13-33. Rodríguez, J. (2001). Síntesis de polvos cerámicos por el método de precipitación. Bol.Soc.Esp.Cerám.Vidrio 40 (3), 173-184. Ruiz, C., & Rodríguez, J. (2010). Aluminatos de sodio obtenidos del sistema Al(NO3)3 • 9H2O — NaOH a través del método de precipitación controlada. Ingeniería e Investigación 30(2), 16-24. Segal, D. (1997). Chemical synthesis of ceramic materials. Journal of Materials Chemistry, 7(8), 1297-1305. Towler, G., & Sinnott, R. (2008). Principles, practice and economics of plant and process design (Primera ed.). San Diego, California, Estados Unidos de Norteamérica: Butterworth-Heineman. Revista Politécnica – Marzo 2016, Vol. 37, No. 2 33 34 Vallejo Fidel1; Mera Luis2; Lascano Luis3 ______________________________________________________________________________________________________________________________ Apéndice A. DIAGRAMA DE FLUJO DE LA PLANTA PILOTO DE ALUMINATO DE SODIO Lista de corrientes del proceso Número de corriente 1 1 2 3 4 5 2 P-001 TK-001 Descripción Nitrato de aluminio Agua destilada Sosa cáustica Agua destilada Solución 2,0 M Nitrato de aluminio Solución 2,0 M Hidróxido de sodio Producto reactor Líquido claro Concentrados Polvo seco Agua evaporada Gases de calcinación Aluminato de sodio 5 6 6 3 4 7 8 9 10 11 12 13 P-002 TK-002 Estado de agregación Flujo másico (kg/batch) Temperatura (°C) Sólido Líquido Sólido Líquido 1450,95 909,22 33,80 420,00 20 20 20 20 Líquido 2360,17 20 Líquido 453,80 20 Líquido Líquido Líquido + Sólido Sólido Vapor Gas Sólido 2813,97 2308,19 505,78 350,00 155,78 250,00 100,00 20 20 20 90 90 900 20 Equipos Nombre del equipo B-301 H-201 P-001 P-002 P-101 Q-302 R-101 R-101 7 P-101 8 TK-001 TK-002 H-201 Descripción Secador de bandejas Sedimentador de base cónica Bomba centrífuga 1 HP Bomba dosificadora Bomba centrífuga 1 HP Horno programable, 1300 °C Tanque reactor Tanque de mezclado nitrato de aluminio Tanque de mezclado hidróxido de sodio 9 11 12 ESCUELA POLITÉCNICA NACIONAL Realizado por: Fidel Vallejo Gallardo INGENIERÍA QUÍMICA B-301 PFD PROCESO DE OBTENCION DE ALUMINATO DE SODIO POR MÉTODO DE PRECIPITACIÓN CONTROLADA AÑO 2013 ESCALA MES MARZO N/A Nº DIBUJO 01 HOJA 10 REV. 01 1 1 Figura A1. Diagrama de flujo de la planta piloto de producción de aluminato de sodio Revista Politécnica - Marzo 2016, Vol. 37, No. 2 13 Q-302 Diseño de una Planta Piloto para la obtención de Aluminato de Sodio por el Método de Precipitación Controlada _________________________________________________________________________________________________________________________ Equipo Tanques de almacenamiento y premezcla Agitador para tanques de almacenamiento y premezcla Bomba de transporte de fluidos Bomba dosificadora Tanque reactor Bomba Agitador para tanque reactor Tanque sedimentador Secador de bandejas Horno programable (incluye dos bandejas de cerámica esmaltada) Tabla A1. Costos de equipos de la planta piloto, año 2013 Descripción Capacidad Uso en planta Preparación y almacenamiento de solución de nitrato de Tanques tipos botella 2500 L aluminio de PE con tapa con 500 L Preparación y seguro giratorio almacenamiento de solución de hidróxido de sodio Mezcla y 1 HP homogenización de Motor con bridas 3320 RPM soluciones en tanques de almacenamiento Transporte de la Alta resistencia solución de nitrato de 1,5 HP química recubierta de aluminio desde el 20 GPM teflón tanque premezclador al reactor Alimentación de Bomba apta para el soluciones desde bombeo de químicos 8 GPH tanque de con control 50 PSI almacenamiento hasta automático de flujo tanque reactor Tanque tipo botella de PE con tapa con 1100 L Reactor seguro giratorio Bomba para el Transporte del 1 HP transporte de líquidos producto del reactor al 3500 RPM con sólidos sedimentador Mezcla y 1 HP Motor con bridas homogenización en 3320 RPM tanque reactor Tanque tipo botella de Coagulación, PE con tapa con 2500 L floculación y seguro giratorio sedimentación Secador por convección de bandas Secado final del Potencia 8 kW horizontal continuo precitado Modelo TM/TL-125 Control de temperatura digital 127 L Tmáx: 1300 ºC Costo (USD) 203,98 68,79 551,60 777,03 1871,30 116,87 3372,99 551,60 203,98 10 025,00 Calcinación del precipitado 9 077,00 TOTAL 28 504,70 Tabla A2. Capital a invertir estimado a partir del costo de los equipos adquiridos, año 2013 COSTO Detalle Porcentaje Porcentaje Capital típico (%) estimado Equipos adquiridos 15-40 30 % USD 28 504,70 DIRECTOS Instalación de equipos 6-14 10 % USD 9 501,57 adquiridos Instrumentación y control 2-8 5% USD 4 750,78 instalados Tuberías instaladas 3-20 4% USD 3 800,63 Conexiones eléctricas 2-10 3% USD 2 850,47 Trabajos civiles 3-18 6% USD 5 700,94 incluyendo servicios Mejoras de terreno 2-5 2% USD 1 900,31 Instalación de servicios 8-20 7% USD 6 651,10 auxiliares Terreno 1-2 2% USD 1 900,31 Ingeniería y supervisión 4-21 12 % USD 11 401,88 INDIRECTOS Supervisión y 4-16 5% USD 4 750,78 mantenimiento de la construcción Gastos contratista 2-6 5% USD 4 750,78 Contingencias 5-15 9% USD 8 551,41 TOTAL 100 % USD 95 015,67 Revista Politécnica – Marzo 2016, Vol. 37, No. 2 35 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ 36 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto Inca Fernando1; Salguero Yadira1; Aldás Miguel1 1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y Agroindustria, Quito, Ecuador Resumen: En este trabajo se presenta el diseño de una planta de producción de cemento solvente de PVC, a partir del reciclaje de tarjetas plásticas de identificación, a escala piloto. Previo al diseño, se analizaron las características de dos pegamentos producidos con diferentes solventes, el tetrahidrofurano (THF) y la ciclohexanona (CH). Además, se realizó una comparación con un producto comercial respecto a las características de adhesión. Se decidió producir el cemento solvente de PVC con el uso de THF como solvente debido a su poder de disolución y rápido secado. Las diferentes áreas de la planta se diseñaron para un procesamiento de 350 kg/día de tarjetas desechadas, bajo la consideración de un proceso productivo que involucra 3 operaciones unitarias: disolución, centrifugación y destilación. Se continuó con el diseño del proceso tecnológico y el diseño básico de la planta. La superficie necesaria para el emplazamiento de la planta es de 700 m2 y la localización de la planta será en Itulcachi, vía Pifo (Ecuador). El proyecto terminó con una evaluación económica, que dio como resultado un costo de producción de 3,04 USD por frasco de 237 mL de cemento solvente de PVC y un precio de venta de 4,26 USD, un valor inferior al del mercado que actualmente corresponde a 7,50 USD. La TIR del proyecto es del 69 % y el VAN con una TMAR del 32 %, a 10 años, resultó igual a 662 526,56 USD. Por tanto, el proyecto es técnicamente viable y atractivo económicamente. Palabras clave: reciclaje de PVC, cemento solvente de PVC, tarjetas plásticas de identificación, tetrahidrofurano Design of a Plant of PVC Solvent Cement from Recycled Plastic Identification Card in Pilot Scale Abstract: This paper presents the design of a PVC solvent cement production plant, from the recycling of plastic identification cards, in a pilot scale. Prior to the design, the characteristics of two adhesives produced with different solvents, tetrahydrofuran (THF) and cyclohexanone (CH), were analyzed. Furthermore, a comparison with a commercial product, in adhesion properties, was performed. It was decided to produce PVC solvent cement using THF as a solvent because of its dissolving power and fast drying. The different areas of the plant were designed for processing 350 kg/day of discarded cards, considering a production process that involves three unit operations: dissolution, centrifugation and distillation. Then, the technological process design and basic design of the plant were stablished. The area for the location of the plant was determined in 700 m2 and the location of the plant will be in Itulcachi - Pifo (Ecuador). The project ended with an economic analysis, resulting in a production cost of 3,04 USD per can of 237 mL of PVC solvent cement and the sale price was 4,26 USD, a lower price compared with the current market value of 7,50 USD. The project IRR is 69 % and the NPV with a MARR of 32 %, at 10 years, was 662 526,56 USD. As conclusion, the project is economically attractive and technically viable. Keywords: PVC recycling, PVC solvent cement, plastic ID cards, tetrahydrofuran. 1 consumo de plásticos, aumenta también la generación de residuos (BCE, 2015). 1. INTRODUCCIÓN Según las cifras publicadas por el Banco Central del Ecuador (BCE) en el boletín anuario 2015, las importaciones de plásticos y caucho se han incrementado en los últimos años desde 464 282 t en el año 2009 a 634 131 t en el año 2014. La causa de este incremento es el beneficio que brindan estos materiales en su uso; sin embargo, con el aumento del [email protected] En miles de dólares (FOB), las importaciones del país se concentran mayoritariamente en cuatro partidas arancelarias correspondientes a los siguientes polímeros: en primer lugar el PE, seguido del PET, luego del PP y por último del PVC (Cámara de Industrias de Guayaquil, 2012). El PVC puede utilizarse en diversas aplicaciones como en empaques, perfiles, techos, aislamiento de cables, Revista Politécnica - Marzo 2016, Vol. 37, No. 2 37 Inca Fernando1; Salguero Yadira1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ aplicaciones médicas emergentes, fabricación de tuberías, entre otras. Esta versatilidad determina que este material se convierta en un problema de eliminación postconsumo, si se considera el crecimiento de la industria plástica (Janajreh et al., 2015). En los países desarrollados, el PVC es el polímero mayoritariamente reciclado. Esto se debe a que se adapta prácticamente a todos los métodos de reciclaje y como tal, se ha dado una atención significativa en cuanto a investigación y tecnología (Sadat y Bakhshandeh, 2011). del cemento formulado con THF fueron similares a los del pegamento comercial (Aldás e Inca, 2015). Por tanto, el objetivo principal del presente trabajo fue diseñar una planta, a escala piloto, que permita utilizar el PVC contenido en las tarjetas plásticas de identificación de tipo estudiantil, empresarial, médico o bancario, con el uso de THF como disolvente, para obtener un cemento solvente de PVC con características competitivas con respecto a los pegamentos de PVC comerciales. 2. METODOLOGÍA Debido a que en el Ecuador los restos de este material no se aprovechan de forma eficiente, ya que se mezclan con otros plásticos para reciclaje o terminan en rellenos sanitarios, se han desarrollado estudios que permiten aprovechar este polímero. Una alternativa, es obtener cemento solvente de PVC a partir de tarjetas plásticas de identificación, cuyo desgaste y caducidad generan una cantidad considerable de estos residuos (Aldás e Inca, 2015). No hay una formulación específica para el cemento solvente puesto que existen un sinnúmero de sistemas de solventes adecuados para el PVC. Sin embargo, se ha encontrado que los cementos solventes con mezclas de tetrahidrofurano (THF) y ciclohexanona (CH) cumplen con los requisitos de la norma ASTM D2564: Especificaciones para cementos solventes para sistemas de tubería plástica de policloruro de Vinilo (PVC) (ASTM, 2014). En la Tabla 1 se encuentran las características de un cemento solvente comercial y de cementos solventes obtenidos con THF (tetrahidrofurano) y CH (ciclohexanona). Estos resultados indican algunas ventajas con respecto al uso del solvente THF en comparación con el solvente CH, en cuanto a tiempos de procesamiento, cantidad de solvente y adhesión. Además, los resultados obtenidos en los ensayos de adhesión 2.1. Diseño de la planta piloto para la producción de cemento solvente de PVC El diseño de la planta se dividió en dos partes, la ingeniería conceptual y la ingeniería básica. 2.1.1. Ingeniería conceptual La ingeniería conceptual está compuesta por un análisis de la disponibilidad de materia prima, la determinación de la capacidad de la planta y su localización. A pesar de que se pueden utilizar como materia prima las tarjetas plásticas de identificación estudiantil, empresarial, bancaria, de seguros médicos, entre otros, la capacidad de la planta fue estimada con base en la cantidad de tarjetas plásticas que dejaron de circular por decreto JB-2012-2225 de la Junta Bancaria en Julio de 2012 (SBS, 2012). La cantidad de tarjetas plásticas de entidades financieras fue el único dato bibliográfico considerado para estimar una producción trimestral de tarjetas, puesto que en el Ecuador aún no se ha cuantificado la cantidad de desechos generados por el descarte de diversos tipos de tarjetas de identificación. Tabla 1. Características del cemento solvente de PVC: comercial, con solvente THF y solvente CH respectivamente (Aldás e Inca, 2015) Sistema Tiempo de disolución de las tarjetas [min] y relación de disolución [tarjetas/solvente] Concentración de solvente en peso Comercial - - THF CH 15 ; 1/5 45 ; 1/6 Ensayo de adhesión Carga máxima Tiempo [h] [kN] 2 0,6263 ± 0,0169 16 0,8152 ± 0,0413 72 1,1258 ± 0,0556 2 0,6258 ± 0,0172 16 0,8147 ± 0,0346 Coloración Transparente Café oscuro (transparente) 69,78 ± 0,84 72 1,0122 ± 0,0464 2 16 0,2816 ± 0,0235 72 0,5056 ± 0,0262 70,98 ± 0,30 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Café oscuro (turbio) Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ Por otro lado, la ubicación de la planta se seleccionó con base en siguientes criterios (Chango et al., 2015; Towler y Sinott, 2012): 38 personal, materia prima, insumos y producto, y los lugares de almacenamiento. 2.2. Evaluación económica - Facilidades de transporte Disponibilidad de servicios básicos Disponibilidad de mano de obra Regulaciones municipales Se determinaron costos de producción y de venta del producto, la inversión necesaria y los indicadores económicos financieros TIR y VAN. 2.1.2. Ingeniería básica La ingeniería básica demanda el diseño del proceso tecnológico y el diseño básico de la planta. 2.1.2.1. Diseño del proceso tecnológico Incluye la descripción del proceso productivo y la elaboración de los diagramas de proceso. Para la descripción del proceso productivo, se consideró el proceso a escala laboratorio de la elaboración de cemento solvente reportado en el estudio “Reciclaje de PVC a partir de tarjetas de identificación plásticas para la obtención de un pegamento de tubería” (Aldás e Inca, 2015). Se realizó un balance de masa para un procesamiento de 350 kg/día de tarjetas recicladas ó 43,75 kg/h considerando 8 horas de trabajo por día. Además, se consideró que el producto final tenga un 70% de solvente después del proceso productivo. Para estimar el costo de producción de un frasco de 237 mL de cemento solvente de PVC se consideraron, entre otros, los costos de la materia prima que comprenden las tarjetas de identificación plásticas, así como también, costos de reactivos, empaques, equipos y servicios auxiliares mediante proformas actualizadas a inicios del año 2015. Por otro lado, para estimar el precio de venta se estableció un 40 % de ganancia con respecto al costo de producción. Es necesario mencionar que no existe un precio oficial para el costo de las tarjetas de identificación desechadas (materia prima), debido a que aún no ha sido identificado como un desecho comercializable. Por tal motivo, y con fines de estimación económica, se consideró que el costo de las tarjetas de identificación desechadas podría ser similar al del PET reciclable. 3. RESULTADOS Y DISCUSIÓN 3.1. Diseño de la planta piloto para la producción de cemento solvente de PVC Con base en un balance de masa y las condiciones de entrada y salida en cada subproceso, se realizaron el diagrama de bloques (BFD) y el diagrama de flujo de proceso (PFD). Los diagramas fueron elaborados de acuerdo estándares y formatos recomendados (Turton et al., 2013). 3.1.1. Ingeniería conceptual 2.1.2.2. Diseño básico de la planta Respecto a la disponibilidad de materia prima, las tarjetas de identificación permiten controlar de mejor manera el acceso a ciertos lugares o beneficios en diversos ámbitos como el estudiantil, empresarial, deportivo, bancario y médico. Puesto que estas tarjetas cuentan con una fecha de caducidad, además de tener un desgaste, su desecho es frecuente, por lo que no se presenta inconveniente alguno con la disponibilidad de materia prima. Su recolección se realizará a través de contenedores trituradores, que prevengan el fraude por el uso de la información proporcionada en la tarjeta. Los contenedores se ubicarán en centros comerciales a nivel nacional. El material pasará a centros de acopio donde se empacará para posteriormente ser llevado a la planta, específicamente a la bodega de materia prima. El diseño básico lo componen un listado de equipos en cada área y la distribución en planta. Sobre la base del proceso productivo, los equipos se ubicaron en 5 diferentes áreas, cada una relacionada a un subproceso. También se consideraron las bodegas. La selección de equipos se realizó en función del balance de masa y energía, de la capacidad requerida para cada subproceso y del volumen de material almacenado. Además, con el objetivo de evitar el vaciado completo de los tanques de almacenamiento se aplicó un 20 % de sobredimensionamiento (Casanovas et al., 2010). La distribución en planta para la producción de cemento solvente de PVC fue elaborada con el objetivo de ordenar los espacios necesarios para los equipos y movimiento de personal, materia prima y producto, además de considerar aspectos de seguridad industrial (Casanovas et al., 2010). Por ello, se tomó en cuenta el diagrama de recorrido del proceso y la planificación de la producción, así como también, la disposición y espaciamiento de equipos, los flujos de En lo que se refiere a disponibilidad de materia prima, determinación de la capacidad y localización de la planta se encontró lo siguiente: En cuanto a la determinación de la capacidad de la planta, si se considera únicamente a los bancos privados, la producción de tarjetas plásticas de crédito hasta octubre de 2011 fue de aproximadamente 22,13 millones a nivel nacional, mientras que la emisión por casas comerciales se estimó en aproximadamente 3 millones de tarjetas (UCSG, 2012). De acuerdo con la Superintendencia de Bancos y Seguros del Ecuador (2012) y su resolución No. JB-2012-2225, a partir Revista Politécnica - Marzo 2016, Vol. 37, No. 2 39 Inca Fernando1; Salguero Yadira1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ del 5 de julio de 2012 solamente las instituciones financieras y las compañías emisoras o administradoras de tarjetas de crédito podrían actuar como emisores, por lo que cerca de 3 millones de tarjetas de crédito, correspondientes a casas comerciales, se dejaron de utilizar en el país (SBS, 2012; UCSG, 2012). A partir de este dato, para un 10 % de procesamiento y una masa promedio de 6 g por tarjeta, se definió una capacidad de 350 kg/día para la planta a escala piloto. Para la localización de la planta, se tomó en cuenta que el plan de ordenamiento metropolitano territorial dicta que las instalaciones industriales que producen efectos nocivos por descargas líquidas no domésticas, emisiones de combustión, ruido, residuos sólidos, entre otros, deben ubicarse en una zona denominada de alto impacto (II3) (Concejo Metropolitano de Quito, 2013). Por ello, la planta estará localizada en una de las nuevas zonas industriales de Quito, en el sector Itulcachi, vía Pifo. En este sitio existe disponibilidad de servicios básicos, mano de obra y facilidades de transporte. con el balance de masa correspondiente para cada etapa. El proceso productivo está dividido en un total de 3 subprocesos: - El primero corresponde a la disolución de las tarjetas recolectadas. - El segundo, concerniente a la separación de cargas, se divide en tres etapas. Cada etapa corresponde a un ciclo de centrifugación. - El tercero, relacionado con la recuperación del solvente, se divide en 2 etapas: la recuperación del solvente como tal, y la obtención del cemento solvente de PVC. El diagrama de flujo del proceso (PFD) se muestra en la Figura 2. Como se puede observar consta de: disolución, separación de cargas, recuperación de solvente y obtención del cemento solvente de PVC. Además, se especifica la temperatura de trabajo. Se debe mencionar que en el subproceso de separación de cargas no se emplearán tres equipos independientes (centrifugadoras), sino que existirán tres ciclos de centrifugación en el mismo equipo, por tal motivo, el proceso se realizará de manera discontinua o tipo Batch. 3.1.2. Ingeniería básica 3.1.2.1. Diseño del proceso tecnológico El proceso propuesto consta de las siguientes etapas y operaciones: Tarjetas Recepción de la materia prima: la materia prima consiste en material de desecho, en este caso tarjetas plásticas de identificación. El material ingresará a la bodega de materia prima por pacas. 262,50 kg tarjetas disueltas 2,43 kg Centrifugación 1,57 kg Centrifugación Cargas e insolubles 258,50 kg tarjetas disueltas Destilación: el THF será recuperado con el objetivo de eliminar el exceso del solvente en el cemento de PVC, mediante una destilación. En este paso se empleará agua como medio de enfriamiento. En la Figura 1 se muestra el diagrama de bloques (BFD) del proceso de producción de cemento solvente de PVC junto Cargas e insolubles 260,07 kg tarjetas disueltas Centrifugación: la separación de cargas del PVC se llevará a cabo en tres ciclos de centrifugación, a 4 000 rpm y un tiempo de 20 min, cada ciclo. Envasado y almacenaje: el cemento solvente de PVC se envasará en frascos de 237 mL. El producto final se almacenará en la bodega de producto terminado para su posterior despacho y venta. 218,75 kg Disolución Disolución: se procesarán 43,75 kg/h (8 h de trabajo por día) de tarjetas plásticas de identificación. La disolución se efectuará mediante el solvente THF. La relación en peso tarjetas/solvente será de 1/5. El proceso se llevará a cabo a temperatura ambiente y presión atmosférica. Concentración: el pegamento para tuberías de PVC se obtendrá luego de que en la destilación, el producto llegue a una concentración de resina de aproximadamente 30 % en peso, y se almacenará en un tanque. THF 43,75 kg 1,43 kg Centrifugación Cargas e insolubles 257,07 257,06 kgkg 129,35 kg THF Recuperación de solvente 127,72 kg Cemento Solvente de PVC Figura 1. Diagrama de bloques (BFD) del proceso de producción de cemento solvente de PVC. Base de cálculo: 1 h Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ 40 Figura 2. Diagrama de flujo (PFD) del proceso de producción de cemento solvente de PVC a partir de tarjetas plásticas de identificación 3.1.2.2. Diseño básico de la planta En esta sección se presenta la lista de los equipos que intervienen en el proceso productivo por cada área, así como también la distribución en planta. El listado de equipos, por cada área en la que se dividió la planta, así como sus dimensiones largo (L), ancho (A) y altura (H) se muestran en la Tabla 2. Para el proceso de producción, también son necesarios un silo de almacenamiento y dos tanques de disolución de respaldo que se ubicarán en dos diferentes bodegas. En la Figura 3 se muestra el plano de distribución de la planta a escala piloto (Layout). La planta tendrá una superficie de 700 m2, la misma que incluye el área de procesamiento, las oficinas, los parqueaderos y los espacios verdes. El orden que sigue la producción es de izquierda a derecha, con el inicio en la bodega de recepción de material, para pasar a la disolución, luego a la separación de cargas, recuperación de solvente y finalmente, a la bodega de almacenaje del producto terminado. 3.2. Evaluación económica El costo unitario de producción y el precio de venta unitario del cemento solvente de PVC envasado en una presentación de 237 mL se muestran en Tabla 3. Los costos de producción están compuestos por materia prima, mano de obra directa y carga fabril, como se presenta en la Tabla 4. Con respecto al costo de la materia prima se Tabla 3. Costo unitario de producción y de venta del cemento solvente de PVC Tabla 2. Listado de los equipos necesarios para el proceso productivo de cemento solvente de PVC por área Dimensiones [m] Área Equipo 1: Disolución 2: Separación de cargas 3: Recuperación del solvente 4: Almacenamiento del solvente Tanque de disolución L 1,00 A 1,00 H 2,80 Centrífuga 1,49 1,13 1,48 Columna de destilación 2,90 0,98 3,85 0,87 0,87 2,18 0,87 0,87 2,18 Tanque de THF recuperado Tanque 5: Almacenamiento almacenamiento de del producto cemento de PVC L: largo, A: ancho, H: altura Rubro anual Valor [USD] Costos de producción 2 772 892,001 Gastos de ventas 7 440,002 Gastos de administración y generales 124 739,003 Gastos de financiamiento 119 000,004 TOTAL 3 024 072,00 Costo unitario (994 896 unidades producidas al año) 3,04 Ganancia (40 % del costo unitario) 1,22 Precio de venta unitario 4,26 1 de la suma de Materia prima, mano de obra directa, insumos, suministros, reparación y mantenimiento, seguros e imprevistos (de la Tabla 4) 2 de Tabla 10 3 de Tabla 10 + Costo por mano de obra indirecta (de la Tabla 4) 4 de Tabla 5 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 41 Inca Fernando1; Salguero Yadira1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ Figura 3. Plano de distribución de la planta piloto para la producción de cemento solvente de PVC Tabla 4. Costo de producción del cemento solvente de PVC Rubro Valor [USD/año] Materia prima Tarjetas recicladas 169 344,00 Solvente THF 1 799 885,00 4 Operarios* 20 160,00 Mano de obra directa Carga Fabril Mano de obra indirecta Gerente general Gerente técnico Secretaria contadora Guardia Insumos Envases Cartones Suministros** Agua Energía eléctrica Combustible Depreciación 60 000,00 28 800,00 14 400,00 5 760,00 720 000,00 18 000,00 230,00 11 321,50 600,00 18 094,50 Reparación y mantenimiento 4 054,00 Seguros 2 777,00 Imprevistos (3%) Total Carga Fabril 26 521,00 910 558,00 [*] Salarios tomados del código del trabajo. Incluye beneficios de ley [**] Los costos por consumo de agua y energía eléctrica se calcularon a partir de las tarifas establecidas por la EMAAP para zonas industriales y por la Empresa Eléctrica Quito respectivamente. debe reiterar que a causa de la escasa información de fuentes oficiales como del Ministerio del Ambiente y, puesto que este tipo de residuos no es considerado para un reciclaje comercial, se asumió que el costo de las tarjetas de identificación desechadas podría ser similar al costo del PET reciclable que corresponde a 1,80 USD/kg. En cuanto al solvente, el THF tiene un valor de 3,10 USD/kg. Los gastos de venta y los gastos de administración, presentados en la Tabla 3, se pueden verificar en el Apéndice A del presente trabajo. Adicionalmente, en este apartado también se presenta el desglose de los rubros correspondientes a la depreciación, costo por reparación y mantenimiento y costos por seguros, cuya sumatoria se presenta en la Tabla 4. En la Tabla 5 se muestran los gastos de financiamiento, los mismos que están compuestos por los intereses bancarios. El financiamiento se conseguirá a través de una institución bancaria que maneja una tasa de interés del 12 %. La tabla de amortización francesa para un plazo de 36 meses se muestra en la Tabla 6. Como se puede observar en la Tabla 3, el precio de venta del cemento solvente a partir de tarjetas de identificación es de 4,26 USD, un valor inferior en un 43,2 % con respecto al precio comercial de dicho producto, que actualmente en el mercado alcanza 7,50 USD por frasco de 237 mL. En caso de que el producto obtenido se comercialice a un precio similar al del mercado, se podría obtener un margen de ganancia del 146,7 % con respecto al costo de producción. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ Tabla 5. Gastos por concepto de financiamiento del proyecto Rubro Valor [USD/año] Inversión fija Terreno (700 m2) 70 000,00 Obras civiles 50 000,00 Silo de almacenamiento 3 360,00 Tanques de disolución (3) 8 250,00 Centrífuga 27 800,00 Columna de destilación 30 175,00 Tanque de almacenamiento de producto y tanque de THF recuperado 8 120,00 Computadores 2 500,00 Camión 30 000,00 Imprevistos (3 % de la inv. fija) 6 906,00 Capital de operación (3 meses)* Materia prima Mano de obra directa Carga fabril** 492 307,00 5 040,00 223 116,00 Tabla 6. Tabla de Amortización Francesa. Período Saldo capital Capital Interés 0 608 027,42 1 593 912,48 14 114,94 6 080,27 2 579 656,40 14 256,09 5 939,12 3 565 257,75 14 398,65 5 796,56 4 550 715,12 14 542,63 5 652,58 5 536 027,06 14 688,06 5 507,15 6 521 192,12 14 834,94 5 360,27 7 506 208,83 14 983,29 5 211,92 8 491 075,70 15 133,12 5 062,09 9 475 791,25 15 284,45 4 910,76 10 460 353,95 15 437,30 4 757,91 11 444 762,28 15 591,67 4 603,54 12 429 014,69 15 747,59 4 447,62 13 413 109,63 15 905,06 4 290,15 Gastos de administración 3 945,00 14 397 045,51 16 064,11 4 131,10 Gastos de venta 1 860,00 15 380 820,75 16 224,76 3 970,46 Caja inicial 50 000,00 16 364 433,75 16 387,00 3 808,21 1 013 379,00 17 347 882,88 16 550,87 3 644,34 Capital propio (40 %) 405 352,00 18 331 166,50 16 716,38 3 478,83 Financiamiento (60 %) 608 027,00 19 314 282,95 16 883,55 3 311,66 Intereses 119 000,00 20 297 230,57 17 052,38 3 142,83 21 280 007,66 17 222,91 2 972,31 22 262 612,53 17 395,13 2 800,08 A partir del flujo de caja que se muestra en la Tabla 7 se obtuvieron los indicadores financieros VAN y TIR. El TMAR está constituido por la tasa activa referencial (5 %), inflación anual del proyecto (5 %) y el costo de oportunidad (22 %). 23 245 043,44 17 569,09 2 626,13 24 227 298,67 17 744,78 2 450,43 25 209 376,44 17 922,22 2 272,99 26 191 274,99 18 101,45 2 093,76 Los indicadores financieros resultantes del proyecto son los siguientes: VAN (USD): 662 526,56; TIR: 69 %; tomando como consideración una TMAR de 32 % y un período de recupero de 10 años. 27 172 992,53 18 282,46 1 912,75 28 154 527,25 18 465,29 1 729,93 29 135 877,31 18 649,94 1 545,27 30 117 040,87 18 836,44 1 358,77 31 98 016,07 19 024,80 1 170,41 32 78 801,02 19 215,05 980,16 33 59 393,82 19 407,20 788,01 34 39 792,54 19 601,27 593,94 35 19 995,26 19 797,29 397,93 36 0,00 19 995,26 199,95 608 027,42 119 000,18 Inversión TOTAL [*] Se solicitará un crédito de capital de trabajo para 3 meses [**] Sin considerar depreciación Como se puede apreciar, con la evaluación económica del proyecto, la implementación de la planta piloto para la producción de cemento solvente de PVC, obtenido a partir de tarjetas plásticas de identificación, constituye un emprendimiento de reciclaje rentable. TOTAL Cuota fija por período a partir del período 1: 20 195,21 USD Revista Politécnica - Marzo 2016, Vol. 37, No. 2 42 43 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ Tabla 7. Análisis de flujo del proyecto Año 1 Ventas* 81,87 % Costo Ventas Utilidad Bruta Año 2 Año 3 Año 4 Año 5 Año 6 Año 7 Año 8 Año 9 Año 10 3 386 960,00 3 598 645,00 3 810 330,00 4 022 015,00 4 233 700,00 4 233 700,00 4 233 700,00 4 233 700,00 4 233 700,00 4 233 700,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 2 772 892,00 614 068,00 825 753,00 1 037 438,00 1 249 123,00 1 460 808,00 1 460 808,00 1 460 808,00 1 460 808,00 1 460 808,00 1 460 808,00 Gastos Administrativos 3,67 % 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 124 269,00 Gastos Ventas 6,62 % 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 224 165,00 Depreciaciones 0,55 % 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 18 564,00 Utilidad Operativa 7,29 % 247 069,00 458 754,00 670 439,00 882 124,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 - - - - - - - - - - (+) Otros Ingresos (-) Otros Egresos (financieros) 1,87 % 63 330,00 40 627,00 15 044,00 - - - - - - - Utilidad antes de impuestos 5,42 % 183 740,00 418 128,00 655 395,00 882 124,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 1 093 809,00 Participación Trabajadores 27 561,00 62 719,00 98 309,00 132 319,00 164 071,00 164 071,00 164 071,00 164 071,00 164 071,00 164 071,00 Impuesto a la Renta 39 045,00 88 852,00 139 272,00 187 451,00 232 434,00 232 434,00 232 434,00 232 434,00 232 434,00 232 434,00 117 134,00 266 556,00 417 815,00 562 354,00 697 303,00 697 303,00 697 303,00 697 303,00 697 303,00 697 303,00 Flujo sin amortizaciones 135 698,00 285 121,00 436 379,00 580 919,00 715 868,00 715 868,00 715 868,00 715 868,00 715 868,00 715 868,00 Pago Capital 179 013,00 201 716,00 227 299,00 - - - - - - - 3,46 % Utilidad Neta 152 017,00 Recuperación capital trabajo Flujo anual (43 314,00) 83 405,00 209 080,00 580 919,00 715 868,00 715 868,00 715 868,00 715 868,00 715 868,00 867 885,00 50 000,00 6 686,00 90 091,00 299 171,00 880 090,00 1 595 958,00 2 311 826,00 3 027 694,00 3 743 561,00 4 459 429,00 (43 314,00) 83 405,00 209 080,00 580 919,00 715 868,00 715 868,00 715 868,00 715 868,00 715 868,00 867 885,00 6 686,00 90 091,00 299 171,00 880 090,00 1 595 958,00 2 311 826,00 3 027 694,00 3 743 561,00 4 459 429,00 *Se considera que se alcanza la venta progresiva de unidades en un plazo de 5 años, empezando con un 80 % de ventas e incrementando 5 % cada año 5 327 314,00 Flujo de Caja Saldo Inicial Flujo Saldo Final Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de una Planta de Producción de Cemento Solvente de PVC a partir de Tarjetas Plásticas de Identificación Recicladas a Escala Piloto _________________________________________________________________________________________________________________________ 4. CONCLUSIONES La implementación de una planta piloto para la producción de cemento solvente de PVC se justifica por varias razones: el proceso productivo es sencillo, el costo de la materia prima es bajo por ser un material reciclado, y además, se disminuye el impacto ambiental generado por este tipo de desechos. La planta se diseñó para un procesamiento de 350 kg/día de tarjetas desechadas, con una distribución en “U”. El proceso productivo es discontinuo o tipo “Batch”, e involucra 3 operaciones unitarias: disolución, centrifugación y destilación. La superficie requerida para el emplazamiento de la planta es de 700 m2. El precio de venta de un frasco de 237 mL de cemento solvente, obtenido a partir de las tarjetas de identificación, es de 4,26 USD, un valor inferior en un 43,2 % con respecto al precio de venta de este producto en el mercado local el cual rodea los 7,50 USD. La implementación de la planta piloto constituye una alternativa rentable para el reciclaje de las tarjetas de identificación de PVC, con un porcentaje de ganancia del 40 % (con respecto al costo de producción) si se considera un precio de venta de 4,26 USD; y un porcentaje mayor al 140 % (con respecto al costo de producción) si el producto se comercializa a un valor similar al del mercado. Con base en el análisis técnico-económico, se determinó que la TIR del proyecto es del 69 % y el VAN con una TMAR del 32 %, a 10 años, resultó mayor a 0 (662 526,56 USD); por lo que el proyecto es rentable y viable. 44 Casanovas, J., Morell, M., Blanco, C., Martínez, L., Mata, S. y Carballo, N. (2010). Manual de cálculos para una planta de producción de acetaldehído. Barcelona, España: Universidad Autónoma de Barcelona. Chango, I., Pazmiño, M. y Quiroz, F. (2015). Diseño Preliminar de una Planta de Mezclado de Poliolefinas Comerciales y Recicladas a Escala Piloto. Revista Politécnica, 35(3), 126-136. Concejo Metropolitano de Quito. (2013). Ordenanza Metropolitana No. 0447 que Establece el Plan Metropolitano de Ordenamiento Territorial (PMOT). Obtenido de: http://www.quitohabitat.gob.ec/ARCHIVOS/LOTAIP/ LITERAL_A/A2_35_ORDENANZA_No0447_PLAN_ORDENAMIENTO _TERRITORIAL.pdf (Febrero, 2015) Janajreh, I., Alshrah, M. y Zamzam, S. (2015) Mechanical Recycling of PVC Plastic Waste Streams from Cable Industry: A Case Study. Sustainable Cities and Society, 18(1), 13-20. Obtenido de http://www. sciencedirect.com.bvirtual.epn.edu.ec/science/article/pii/S221067071500053 0 (Diciembre, 2015) Sadat, M. y Bakhshandeh, G. (2011). Recycling of PVC wastes. Polymer degradation and stability, 96(4), 404-415. Obtenido de: http://www.sciencedirect.com.bvirtual.epn.edu.ec/science/article/pii/S01413 91010004556 (Diciembre, 2015) SBS - Superintendencia de Bancos y Seguros del Ecuador. (2012). Resolución No. JB-2012-2225 - La Junta Bancaria. Obtenido de: http://www.sbs.gob.ec/medios/PORTALDOCS/downloads/normativa/2012/r esol_JB-2012-2225.pdf (Febrero, 2015) Towler, G. y Sinott, R. (2012). Chemical Engineering Design. (2nd ed.). Massachusetts, United States of America: Butterworth-Heinemann Turton, R., Bailie, R., Whiting, W., Shaeiwitz, J. y Bhattacharyya, D. (2013). Analysis, Synthesis and Design of Chemical Processes. (4th ed.). New Jersey, United States of America: Prentice Hall. UCSG - Universidad Católica de Santiago de Guayaquil. (2012). Informe de Coyuntura Económica. Obtenido de: http://www.elfinanciero.com/ banca_especiales/tema_12_2012/banca_01_2012.pdf (Febrero, 2015) AGRADECIMIENTO Agradecemos a la Escuela Politécnica Nacional, por el financiamiento de la investigación, a través de los fondos del Proyecto Semilla PIS 12-43. Además, agradecemos al Ing. Carlos Andrés Solórzano Mendoza M.Sc. por su criterio y aporte en la evaluación económica del presente estudio. REFERENCIAS Aldás, M. y Inca, F. (2015). Reciclaje de PVC a partir de tarjetas de identificación plásticas para la obtención de un pegamento de tubería. Revista Digital Congreso de Ciencia y, Tecnología ESPE 2015, 10(1), 176181. ASTM. (2014). Standard Specification for Solvent Cements for Poly (Vinyl Chloride) (PVC) Plastic Piping Systems (ASTM D2564-12). Obtenido de: http://compass.astm.org/EDIT/html_annot.cgi?D2564+12. BCE - Banco Central del Ecuador. (2015). Boletin anuario 2015. Capítulo III. Comercio Exterior: Importaciones por secciones de la nomenclatura arancelaria, Toneladas. Obtenido de: http://www.bce.fin.ec/ index.php/component/k2/item/327-ver-bolet%C3%ADn-anuario-pora%C3%B1os (Febrero, 2015) Cámara de Industrias de Guayaquil. (2012). Importaciones de materias primas plásticas. Obtenido de: http://www.industrias.ec/archivos/file/ INFORMACION%20PARA%20AFILIADOS/Import_m_primas_plast_corr egida03_100212.pdf (Febrero, 2015) Revista Politécnica - Marzo 2016, Vol. 37, No. 2 45 Inca Fernando1; Salguero Yadira1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ Tabla 10. Gasto por vetas del cemento solvente de PVC y gastos de administración APÉNDICE A DESGLOSE DE COSTO CALCULADOS PARA EL ANÁLISIS FINANCIERO Los rubros correspondientes a la depreciación, costo por reparación y mantenimiento y costos por seguros se encuentran desglosados en las Tablas 8 y 9. Los gastos de ventas y los gastos de administración se encuentran en la Tabla 10. Rubro Valor [USD/año] Gasto por vetas 2 400,00 Publicidad 5 040,00 Vendedor Total Gastos de administración Depreciación de otros activos Concepto Valor [USD] Vida útil (años) 50 000,00 20 2 500,00 Silo de almacenamiento 3 360,00 10 336,00 Tanques de disolución 8 250,00 10 825,00 Centrífuga 27 800,00 10 2 780,00 Columna de destilación Obras civiles 30 175,00 10 3 017,50 Tanques de almacenamiento del cemento y del THF recuperado (2 tanques) 8 120,00 10 812,00 Computadores 2 500,00 3 833,33 30 000,00 5 6 000,00 Imprevistos de la inversión fija 6 906,15 10 690,61 Gastos de puesta en marcha 3 000,00 10 300,00 Camión Total 18 094,00 Depreciación de otros activos Mobiliario de oficina 3 000,00 10 300,00 Constitución de la sociedad 1 000,00 10 100,00 700,00 10 70,00 Total 470,00 Imprevistos (1 % del costo del terreno) Tabla 9. Costo por reparación y mantenimiento y por concepto de seguros Valor [USD] Concepto % Costo anual [USD/año] Reparación y mantenimiento Maquinaria y equipo 77 705,00 2 1 554,10 Camión 30 000,00 5 1 500,00 Construcciones 50 000,00 2 1 000,00 Total 4 054,10 Seguros Maquinaria y equipo 77 705,00 1 777,05 Camión 30 000,00 5 1 500,00 Construcciones 50 000,00 1 500,00 Total 309,00 Otros imprevistos (2 %) Costo anual [USD/año] 2 777,05 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 470,00 15 000,00 Gastos de oficina Tabla 8. Depreciación 7 440,00 Total 15 779,00 Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados _________________________________________________________________________________________________________________________ 46 Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados Inca Fernando1; Quiroz Francisco1; Aldás Miguel1 1Escuela Politécnica Nacional, Centro de Investigaciones Aplicadas a Polímeros, Facultad de Ingeniería Química y Agroindustria, Quito, Ecuador Resumen: El presente trabajo tuvo como objetivo la recuperación del PVC proveniente de tarjetas plásticas de identificación. Inicialmente se caracterizaron las tarjetas mediante FTIR, DSC, TGA, dureza y ensayo traccióndeformación. En la obtención de un primer producto, a las tarjetas se les redujo su tamaño hasta Dp = 400 µm, luego al resultado se plastificó mediante DOP y DIBP, a dos concentraciones. El producto obtenido se caracterizó mediante DSC y ensayo tracción-deformación, el cual determinó una elongación a la rotura superior a 140 %. En la obtención de un segundo producto se empleó una disolución de las tarjetas, separación de cargas, plastificación, recuperación de solvente y un secado. Como solventes se emplearon el tetrahidrofurano y ciclohexanona, y como plastificantes el DOP y DIBP, a dos concentraciones. Este producto se caracterizó mediante FTIR, DSC, TGA, dureza y ensayo tracción-deformación, el cual determinó una elongación a la rotura superior a 500 %. Palabras clave: reciclaje, PVC, tarjetas plásticas de identificación, plastificante, DOP, DIBP. Recovery of Polyvinyl Chloride (PVC) from ID cards to Obtain Plasticized Materials Abstract: This study aimed the recovering of PVC from plastic ID cards. Initially the cards were characterized by FTIR, DSC, TGA, hardness and tensile-strain properties. To obtain a first product, the cards were reduced in size to Dp = 400 µm. Then, they were plasticized with DOP and DIBP, at two concentrations. The product obtained was characterized by DSC and tensile-strain properties, where it was determined an elongation at break greater than 140 %. To obtain a second product, the process consisted in: dissolution of cards, fillers separation, mix with a plasticizer, solvent recovery and drying of the product. As solvents, tetrahydrofuran and cyclohexanone were used. As plasticizers, DOP and DIBP at two concentrations were used. This second product was characterized by FTIR, DSC, TGA, hardness and tensile-strain properties, where it was determined an elongation at break greater than 500 %. Keywords: recycling, PVC, ID cards, plasticizer, DOP, DIBP. 1 1. INTRODUCCIÓN En el Ecuador, la producción nacional de tarjetas plásticas de crédito a octubre de 2011 se estimaba en el orden de 22,13 millones, emitidas solamente por los Bancos Privados y 3 millones las tarjetas emitidas por casas comerciales que son administradas y respaldadas por los bancos privados (Universidad Católica de Santiago de Guayaquil, 2012). Debido a la gran cantidad de producción y consumo de las tarjetas de identificación plásticas (carnets, identificaciones empresariales, seguros privados, entre otras) se dispone de una cantidad considerable de desechos de dichas tarjetas. Con base en las cifras antes mencionadas y bajo la consideración de que este tipo de tarjetas se desechan con frecuencia, ya sea por caducidad o por desgaste de las mismas, se puede inferir que la cantidad de residuos de este [email protected] tipo de material que se generan es considerable y la cual no tiene un tratamiento adecuado (Centro de Estudios y Experimentación de Obras Públicas, 2013; Plastics Europe, 2013). El presente proyecto tuvo como finalidad aprovechar el PVC de estas tarjetas para la obtención de materiales flexibles, y mediante diferentes ensayos comparar sus propiedades. Por esta razón se planteó experimentar con dos procesos de reciclaje diferentes, para determinar los parámetros adecuados de procesamiento que permitan aprovechar de mejor manera los materiales presentes en este tipo de tarjetas plásticas. 2. MATERIALES Y MÉTODOS 2.1. Materiales Las tarjetas de identificación a ser recicladas, fuente del PVC usado en la obtención de todos los productos, fueron Revista Politécnica - Marzo 2016, Vol. 37, No. 2 47 Inca Fernando1; Quiroz Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ recolectadas de una compañía de seguro médico de la Escuela Politécnica Nacional del Ecuador. Se recolectaron tres tipos de tarjetas, las cuales fueron analizadas respectivamente. reflectancia total atenuada (ATR) desde los 4 000 a 600 cm-1 en un espectrofotómetro Perkin Elmer modelo SpectrumOne. En la disolución a las tarjetas plásticas se emplearon tetrahidrofurano (THF) y ciclohexanona (CH), por separado, de grado analítico. La materia prima recolectada (tarjetas de identificación) fue molida hasta un Dp= 40 µm. Luego de lo cual, se pesó aproximadamente 20 mg, y se colocó en una celda de aluminio para posteriormente ser sellada. Se utilizó una celda vacía como referencia. Para todas las muestras se efectuó una sola repetición, para salvaguardar el equipo de cualquier vapor generado del PVC. En la plastificación del PVC, se usaron el DOP (dioctilftalato) y DIBP (di-isobutilftalato), de grado analítico. Temperatura de transición vítrea (Tg) 2.2. Métodos Las mediciones experimentales en todos los análisis y ensayos se realizaron de acuerdo a normas ASTM. Con los resultados obtenidos se determinaron los valores promedio y las desviaciones estándar. 2.2.1. Obtención de los materiales plastificados Primer producto Los barridos (calentamientos y enfriamientos) se efectuaron en un Calorímetro TA modelo Q2000, en una atmósfera de nitrógeno con flujo de 20 mL/min. Las condiciones a las que se trabajó se detallan a continuación: a) Primer calentamiento: desde -80 hasta 90 °C a una tasa de calentamiento de 20 °C/min b) Paso Isotermal: se mantuvo la temperatura de 90 °C durante 15 min Para obtener el primer producto se mezclaron las tarjetas con Dp = 400 µm (obtenido mediante lijado y tamizado) junto con el plastificante respectivo (DOP o DIBP), en un recipiente plástico de 1 L. La agitación se la realizó mediante un agitador mecánico marca TLINE modelo 102, a 3 000 rpm por un tiempo máximo de 5 minutos. c) Primer enfriamiento: desde 90 hasta -80 °C a una tasa de enfriamiento de 20 °C/min d) Segundo calentamiento: desde -80 hasta 90 °C a una tasa de calentamiento de 20 °C/min De la mezcla obtenida se pesaron 20 g, mediante una balanza Denver Instrument Company AA-200, 200 g, 0,0001 g, y se colocaron entre dos placas metálicas. El sistema se colocó en una prensa calefactora a 130 °C y 11 t, durante un tiempo de 20 segundos. e) Paso Isotermal: se mantuvo la temperatura de 90 °C durante 15 min Para la determinación de la temperatura de transición vítrea (Tg), se usó el método de la primera derivada, a partir del termograma obtenido en el segundo calentamiento. Segundo producto Para obtener el segundo producto, primero se separó el PVC de las cargas que contenía. Para esto, el proceso seguido fue: una disolución de las tarjetas, separación de cargas e insolubles mediante una centrifugación. Luego, a la solución resultante se realizó la plastificación, junto con la recuperación del solvente. Finalmente, se realizó un secado a las placas obtenidas. La separación de las cargas e insolubles del PVC, se hizo mediante tres ciclos de centrifugación, a 4 000 rpm durante un tiempo de 20 min, en una centrífuga HealForce, modelo NEOFUGE 15 y el secado a 40 y 120 °C, para el THF y CH, respectivamente, en una estufa MMM Group, modelo Venticell 55. 2.2.2. Caracterización de la materia prima y productos obtenidos f) Segundo enfriamiento: desde 90 °C hasta temperatura ambiente a una tasa de enfriamiento de 20 °C/min Análisis termogravimétrico De las tarjetas plásticas y de los productos plastificados, se tomaron aproximadamente 10 mg, y se colocaron en un equipo marca TA modelo Q500. El ensayo se llevó a cabo en una atmósfera de nitrógeno con flujo de 50 mL/min, desde la temperatura ambiental hasta 800 °C. Ensayo de tracción-deformación El ensayo de tracción-deformación se realizó de acuerdo a la norma ASTM D638, probeta número IV. Los productos obtenidos se cortaron en una máquina troqueladora marca CEAST tipo 6051, y se procedió a ensayar cada uno en un equipo de ensayos universal marca INSTRON modelo I0II, a una velocidad de ensayo de 50 mm/min. Espectroscopía de infrarrojo (FTIR) Tanto la materia prima (tarjetas plásticas de identificación), así como los diferentes productos obtenidos, se analizaron por transmisión desde los 4 000 a 400 cm-1, y mediante Ensayo de dureza La dureza se determinó mediante la norma ASTM D2240-05, la cual menciona un espesor mínimo de 6 mm del material a Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados _________________________________________________________________________________________________________________________ 48 ensayarse. Debido al espesor de las tarjetas (0,70 mm) y productos obtenidos (2,00 mm), se apilaron varias muestras (una sobre otra) y sobre estas se hicieron las respectivas mediciones de dureza en la escala Shore A. . 3. RESULTADOS Y DISCUSIÓN 3.1. Caracterización de la materia prima 3.1.1. Análisis por Espectroscopía de infrarrojo (FTIR) El análisis aplicado a los tres tipos de tarjetas mostraron espectros IR similares para todas las muestras (tarjetas tipo 1, 2 y 3). En el espectro se puede observar las bandas características del PVC, es decir aquellas que se encuentran en los 1 430 y 690 cm-1 (Blazevska-Gilev y Spaseska, 2007; González Horrillo, 2005). Con estos resultados, se puede confirmar que las tarjetas recolectadas, tienen como componente mayoritario PVC. 3.1.2. Análisis por Calorimetría diferencial de barrido (DSC) Para las tarjetas plásticas recolectadas se determinó una sola transición vítrea a 80,7 °C. Mediante este valor se puede confirmar que la materia prima se trata de PVC rígido, ya que se encuentra dentro del rango para este material (Engineers India Research Institute, 2012). Figura 1. Termograma de las tarjetas plásticas recicladas 3.1.5. Análisis termogravimétrico En la Figura 1 se muestra el termograma de las tarjetas plásticas (materia prima). Para este material se observan claramente dos etapas correspondientes a la degradación del PVC, y un residuo que corresponde al porcentaje de cargas que formaban parte de las tarjetas. Es así que, el PVC representaba el 77,82 % en peso y las cargas o residuo un 22,18 %. 3.2. Primer producto plastificado 3.2.1. Temperatura de transición vítrea (Tg) 3.1.3. Ensayo de tracción-deformación Los resultados del ensayo tracción-deformación de las tarjetas plásticas recolectadas fueron: 7,10 ± 0,25 % de deformación a la rotura; y 1139,60 ± 77,81 [MPa] de módulo de Young. Al igual que en el análisis por FTIR, los tres tipos de tarjetas presentaron resultados muy similares, seleccionando un tipo de tarjeta, sobre el cual se hizo la discusión de resultados y las comparaciones posteriores. El tipo de tarjeta elegido fue el tipo 2. Al comparar los valores obtenidos para la tarjeta tipo 2 con datos bibliográficos, se puede observar que se encuentran dentro del rango según Blanco Álvarez (2006); específicamente los resultados del parámetro porcentaje de deformación (0-40 %). Con base en estos resultados se puede concluir que la materia prima (tarjetas) es PVC sin plastificar. 3.1.4. Ensayo de dureza Los resultados del ensayo de dureza Shore D para los tres tipos de tarjetas recolectadas fueron: 73,80 ± 1,47 para el tipo 1; 74,20 ± 1,33 para el tipo 2 y, 73,60 ± 1,20 para el tipo de tarjeta 3. Como se puede observar el valor promedio de la dureza es muy similar para los tres tipos de tarjetas, comprobando una vez más que están hechas de componentes semejantes, como el PVC. En la Figura 2 se muestran las Tg de los productos obtenidos, con respecto a la concentración de plastificante DOP y DIBP. Para determinar la Tg, únicamente en esta sección, se añadió una concentración de plastificante, 20 %, a las previamente planteadas (40 y 60 %). Esta concentración fue necesaria para obtener la tendencia de la Tg con el aumento de plastificante. Se debe remarcar que la concentración de 20 % de plastificante no se empleó para ningún otro ensayo, durante el resto del proyecto. En la Figura 2 se puede observar, para el sistema plastificado mediante DOP, que luego del segundo punto (C = 20 % DOP) ya se alteró la tendencia previa (lineal), es decir, para el tercer punto la relación entre la Tg y la concentración ya no decreció en la misma magnitud. Esto se debe a que el sistema alcanzó la concentración crítica de plastificación, es decir, que a ésta concentración la posibilidad de interacción deja de ser efectiva y, a partir de ella, el plastificante tiene impedida la capacidad de solvatarse en la resina (González Horrillo, 2005). Con respecto a los sistemas plastificados mediante DIBP, a medida que se incrementó la cantidad de plastificante, disminuyó la Tg, pero a diferencia del sistema anterior, la relación lineal entre Tg y porcentaje de plastificante se dio hasta un 40 % DIBP. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 49 Inca Fernando1; Quiroz Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ Tabla 1. Resultados ensayo tracción-deformación en los sistemas plastificados mediante DOP y DIBP Módulo de Concentración Deformación Deformación a Young [%] al Pico [%] la Rotura [%] [Mpa] Sistemas con DOP 40 90,67 ± 7,83 100,58 ± 9,90 84,90 ± 6,93 60 131,56 ± 7,27 154,78 ± 5,76 70,83 ± 2,95 40 92,51 ± 1,47 102,13 ± 5,96 75,80 ± 4,22 60 140,08 ± 8,62 180,08 ± 5,14 61,66 ± 5,68 Sistemas con DIBP Figura 2. Temperatura de transición vítrea con respecto a la concentración de plastificante ±σ 3.2.2. Ensayo tracción deformación En la Tabla 1 se muestran los resultados del ensayo traccióndeformación para los sistemas con 40 y 60 % de DOP y DIBP, respectivamente. Para el sistema plastificado mediante DOP, se puede observar como la deformación aumentó y el módulo disminuyó, a mayor concentración de plastificante, lo cual se debe a la plastificación, ya que la elongación debe incrementarse con el aumento de la concentración de plastificante (Wypych, 2012). Para el sistema plastificado mediante DIBP. Para la concentración de 60 % la elongación, tanto al pico como a la rotura, es mayor para estos sistemas que para aquellos plastificados con DOP. Al comparar el porcentaje de deformación a la rotura y el módulo de Young entre los sistemas plastificados con DOP y DIBP, que se muestra en la Tabla 1 y Tabla 3, respectivamente, se puede observar que parámetros como la deformación aumentaron, mientras que el módulo disminuyó, lo cual determina que el producto obtenido a estas condiciones se trata de un material dúctil (UVA, 2008). Figura 3. Espectro IR para el sistema PVC/DOP 40/60 Tabla 2. Temperatura de transición vítrea de los sistemas plastificados Solvente Sistema Concentración [%] Tg [°C] THF PVC/DOP CH THF PVC/DIBP 3.3. Segundo producto plastificado CH 60/40 -32,32 40/60 -58,29 60/40 -27,60 40/60 -59,68 60/40 -21,66 40/60 -51,42 60/40 -2,32 40/60 -46,74 3.3.1. Análisis por espectroscopía infrarrojo (FTIR) En la Figura 3 se puede observar como el espectro IR concuerda en la ubicación de las bandas características del plastificante tipo ftalato. Estas bandas aparecen en 1 729, 1 601, 1 579, 1 457, 1 374, 1 122, 1 068, 1 036, 739 cm-1 (Wypych, 2012), confirmando que los sistemas PVC/DIBP y PVC/DOP, se plastificaron a las concentraciones propuestas. Los espectros de los sistemas restantes son muy similares al de la Figura 3, por esta razón no se muestran en esta sección. 3.3.2. Temperatura de transición vítrea (Tg) En la Tabla 2 se muestran las Tg para los sistemas disueltos en THF y CH, y plastificados con DOP y DIBP. Como se puede observar, las Tg obtenidas para los sistemas plastificados con DOP muestran valores muy similares a los mostrados en investigaciones previas para este plastificante (Turi, 1997). Las Tg, a mayor concentración de plastificante disminuyeron su valor, lo que cumple con la definición de plastificante. Se debe mencionar que el método utilizado para determinar la Tg puede presentar errores durante su determinación, ya que al existir residuos de solvente, estos pueden influenciar en los resultados obtenidos. Un ejemplo de este enunciado se presenta en el sistema PVC/DIBP 60/40, el cual debería mostrar una Tg mucho menor. 3.3.3. Ensayo tracción-deformación a) Sistemas disueltos en THF En la Tabla 3 se muestran los resultados del ensayo traccióndeformación para los sistemas plastificados mediante DOP y DIBP, respectivamente, a 0 (tarjetas plásticas), 40 y 60%. En esta tabla, al comparar el parámetro deformación al pico o a Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados _________________________________________________________________________________________________________________________ Tabla 3. Resultados ensayo tracción-deformación en los sistemas plastificados mediante DOP y DIBP disuelto en THF y CH respectivamente Deformación Concentración Deformación Módulo de a la [%] al Pico [%] Young [Mpa] Rotura [%] Disolvente THF; plastificante: DOP 0 40 60 7,10 ± 0,25 501,92 ± 14,02 533,06 ± 14,81 7,10 ± 0,25 1139,60 ± 77,81 528,48 ± 17,15 2,58 ± 0,08 549,20 ± 15,15 0,34 ± 0,04 Tabla 4. Resultados de dureza Shore A para los sistemas plastificados Solvente Sistema Concentración Dureza Shore [%] A 60/40 54,0 ± 1,1 THF 40/60 20,0 ± 1,1 PVC/DOP CH THF PVC/DIBP Disolvente THF; plastificante: DIBP 0 40 60 7,10 ± 0,25 521,52 ± 39,86 563,40 ± 36,40 7,10 ± 0,25 1139,60 ± 77,81 527,84 ± 40,05 2,02 ± 0,04 586,24 ± 40,90 0,45 ± 0,02 50 CH 60/40 52,8 ± 1,3 40/60 21,6 ± 1,0 60/40 65,2 ± 1,2 40/60 27,2 ± 1,2 60/40 68,0 ± 1,4 40/60 28,0 ± 0,9 ±σ 3.3.4. Ensayo de dureza Disolvente CH; plastificante: DOP 0 40 60 7,10 ± 0,25 424,67 ± 33,21 444,26± 45,43 7,10 ± 0,25 1139,60 ± 77,81 427,84 ± 33,62 1,61 ± 0,14 454,40 ± 42,49 0,33 ± 0,03 Disolvente CH; plastificante: DIBP 0 40 60 7,10 ± 0,25 384,58 ± 26,10 462,92 ± 51,75 Como se puede observar en la Tabla 4, los valores de las durezas son similares para una misma concentración, sea para el THF o la CH. El resultado de dureza correspondiente a la concentración más alta, 60% DOP o DIBP, para cualquier solvente, es el que mostró el valor más bajo de dureza, confirmando que a mayor concentración de plastificante menor será la dureza. 7,10 ± 0,25 1139,60 ± 77,81 386,88 ± 26,53 2,33 ± 0,11 3.3.5. Análisis termogravimétrico 479,12 ± 55,42 0,33 ± 0,02 Los resultados de este análisis se utilizaron para determinar la concentración real de cada uno de los sistemas, a partir del termograma obtenido. ±σ la rotura, se puede notar como las cargas presentes en las tarjetas de identificación no permitieron una mayor plastificación, ya que este parámetro aumentó luego de la centrifugación. Así, se concluye que este sistema es blando, caracterizado por un bajo módulo de Young y una gran elongación (Blanco Álvarez, 2006; Seymour y Carraher, 2002; UVA, 2008). Para los sistemas con DIBP a 40 y 60% también hubo plastificación. Además al comparar los valores de la Tabla 3 entre ellos, se puede notar una mayor elongación para los sistemas plastificados con DIBP que para aquellos plastificados con DOP. a) Sistemas disueltos en CH En la Tabla 3 también se muestran los resultados del ensayo tracción-deformación para los sistemas plastificados mediante DOP y DIBP, respectivamente, a 0 (tarjetas plásticas), 40 y 60%. Como se puede observar para el sistema con DOP, el porcentaje de deformación aumentó, mientras que el módulo de Young disminuyó. Además, en los resultados del sistema plastificado por DIBP, se puede notar que el porcentaje de deformación más bajo corresponde al 40%, de entre todos los sistemas plastificados de esta sección. Tal resultado se debe a que el sistema no se llega a plastificar hasta la concentración deseada, debido a que la cantidad de plastificante añadido no fue la correcta. a) Sistemas disueltos en THF Como se observa en la Tabla 5, la concentración de 40% DOP es muy cercana al valor teórico, mientras que para el 60% DOP existe una variación mucho mayor. En contraste, existe mayor diferencia para la concentración teórica 40% DIBP y una menor para la de 60% DIBP. La variación entre el valor teórico y el real pudo deberse a que las condiciones de centrifugación (4 000 rpm y 20 min) no fueron las óptimas para una mayor separación de las cargas. b) Sistemas disueltos en CH En la Tabla 5 se puede observar como los sistemas disueltos en CH mostraron mayores desviaciones del valor teórico, que aquellos disueltos en THF. En las Figuras 4 y 5 se muestran dos termogramas para los sistemas plastificados mediante DOP y DIBP. Debido a la gran similitud en las gráficas de los sistemas restantes, no se muestran los termogramas en esta sección. También se debe añadir que mediante la primera derivada (dentro del análisis del termograma obtenido) se pudieron determinar las temperaturas iniciales y finales de cada etapa, y por tanto, la concentración reportadas de cada componente en el sistema plastificado. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 51 Inca Fernando1; Quiroz Francisco1; Aldás Miguel1 _______________________________________________________________________________________________________________________________ Tabla 5. Concentraciones de los componentes en los sistemas plastificados con DOP y DIBP, disueltos en THF y CH respectivamete, determinadas mediante ensayo termogravimétrico Concentración Componente Concentración real [%] teórica [%] Disolvente THF; plastificante: DOP DOP 40,65 PVC 51,94 40 Residuo 7,41 DOP 65,44 PVC 29,23 60 Residuo 5,33 40 60 40 60 40 60 Disolvente THF; plastificante: DIBP DIBP 44,21 PVC 50,96 Residuo 4,83 DIBP 62,03 PVC 33,07 Residuo 4,90 Figura 4. Termograma correspondiente a un sistema plastificado con DOP a una concentración de 60 % Disolvente CH; plastificante: DOP DOP 39,08 PVC 54,85 Residuo 6,07 DOP 62,78 PVC 31,98 Residuo 5,24 Disolvente CH; plastificante: DIBP DIBP 34,09 PVC 59,16 Residuo 6,75 DIBP 55,8 PVC 38,59 Residuo 5,61 En la Figura 4 se muestra el termograma correspondiente a un sistema plastificado mediante DOP a una concentración de 60 %. Al comparar la Figura 1 con la Figura 4, se puede notar como en esta última aparece una nueva etapa, por lo cual este sistema consta de tres etapas y un residuo. La primera etapa corresponde al DOP, la segunda y tercera corresponden al PVC, y el residuo a las cargas todavía presentes en el sistema plastificado. En la Figura 5 se muestra el termograma correspondiente a un sistema plastificado mediante DIBP a una concentración de 40 %. Al comparar la Figura 1 con la Figura 5, se puede notar como en esta última aparecen dos nuevas etapas, por lo cual este sistema consta de cuatro etapas y un residuo. La primera y segunda etapas corresponden al DIBP, la tercera y cuarta corresponden al PVC, y el residuo a las cargas todavía presentes en el sistema plastificado. El análisis termogravimétrico permitió obtener las concentraciones reales de todos los sistemas plastificados obtenidos. Además, gráficamente, en las Figuras 1, 4 y 5, se pudieron observar las etapas de descomposición del PVC y de los plastificantes DOP, DIBP respectivamente. Figura 5. Termograma correspondiente a un sistema plastificado con DIBP a una concentración de 40 % 4. CONCLUSIONES El componente polimérico mayoritario de los tres tipos de tarjetas recolectadas es el policloruro de vinilo (PVC) rígido. Se obtuvieron y caracterizaron dos productos diferentes a partir de la recuperación del PVC de las tarjetas de identificación desechadas. Se encontró que las condiciones de centrifugación, 4000 rpm durante 20 min, limitaban la separación de las cargas y el PVC, ya que a pesar de realizar este proceso por tres ciclos, en los materiales plastificados finales se encontró una cierta cantidad de residuo correspondiente a las cargas. Mediante el análisis termogravimétrico se determinó que el DOP, en el sistema plastificado, presentará una sola etapa de descomposición, mientras el DIBP presentará dos etapas durante su descomposición. Se determinó la compatibilidad entre dos plastificantes (DOP o DIBP) y el PVC proveniente de tarjetas plásticas de identificación. Se encontró una mayor compatibilidad para los sistemas plastificados con DIBP. Los sistemas previamente disueltos en THF o CH (producto 2) mostraron una mayor elongación a la rotura, con respecto a los sistemas prensados (producto 1). Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Recuperación de Policloruro de Vinilo (PVC) a Partir de Tarjetas de Identificación para la Obtención de Materiales Plastificados _________________________________________________________________________________________________________________________ AGRADECIMIENTO Agradecemos a la Escuela Politécnica Nacional, por el financiamiento de la investigación, a través de los fondos del Proyecto Semilla PIS 12-43. REFERENCIAS Blanco Álvarez, F. (2006). Propiedades Mecánicas. Rotura. Obtenido de: http://www6.uniovi.es/usr/fblanco/TEMAII.2.7.PROPIEDADESMECANIC AS.pdf. p.28. (Julio, 2015) Blazevska-Gilev, J. y Spaseska, D. (2007). Chemical Recycling of Poly (Vinyl Chloride): Alkaline Dechlorination in Organic Solvents and Plasticizer Leaching in Caustic Solution. Journal of Chemical Technology and Metallurgy, 7(1). Obtenido de: http://dl.uctm.edu/journal/node/j20071/04_Jadranka-29-34.pdf. pp.29-34. (Julio, 2015) Centro de Estudios y Experimentación de Obras Públicas (CEDEX). (2013). Residuos Plásticos. Obtenido de: http://www. cedexmateriales. vsf.es/view/archivos/residuos/398.pdf. pp.5-6. (Febrero 2015) Engineers India Research Institute (EIRI). (2012). Technology of PVC Compounding and Its Applications. Nueva Delhi, India: EIRI. p.14. González Horrillo, N. (2005). Espectroscopia Infrarroja de Transformada de Fourier (FTIR) en el Estudio de Sistemas Basados en PVC. San Sebastián, España: Universidad del País Vasco. Plastics Europe. (2013). Plastics - The Facts 2013. Obtenido de: http://www.plasticseurope.es/Document/plastics-the-facts-2013-inenglish.aspx?FolID=2. p.10. (Mayo, 2015) Seymour, R. y Carraher, C. (2002). Introducción a la Química de los Polímeros. Barcelona, España: Reverté. p.464. Turi, E. (1997). Thermal Characterization of Polymeric Materials. San Diego, Estados Unidos: Academic Press. p. 881. Universidad Católica de Santiago de Guayaquil – UCSG. (2012). Informe de Coyuntura Económica. Obtenido de: http://www.elfinanciero. com/banca_especiales/tema_12_2012/banca_01_2012.pdf (Febrero, 2015) UVA - Universidad de Valladolid. (2008). Propiedades Mecánicas de los Polímeros. Valladolid, España. Obtenido de: https://alojamientos.uva.es/guia_docente/uploads/2011/469/45757/1/Docume nto6.pdf. p.35. (Febrero, 2015) Wypych, G. (2012). Handbook of Plasticizers. Toronto, Canadá: ChemTec Publishing. p. 200-204. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 52 Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater _________________________________________________________________________________________________________________________ 53 Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2 1 Universidad de las Fuerzas Armadas, Departamento de Ciencias de Energía y Mecánica, Sangolquí, Ecuador 2 Escuela Politécnica Nacional, Departamento de Materiales, Laboratorio de Nuevos Materiales, Quito, Ecuador Abstract: The construction of an open source based spin and dip coater are presented. The mechanical systems and its gear ratio are discussed, as well as the electronic system and control unit. The instruments were assembled using low cost materials and share a common controller unit, which is programmed with an Arduino microcontroller. The total velocity range of the instruments are 300 to 10000 rpm for the spin coater and 0.6 cm/h to 30cm/min for the dip coater. The operation and use of the two instruments are discussed, which in both cases compare very favorably with commercial models. Keywords: Spin coater, dip coater, open source, Arduino, low cost instrumentation, surface deposition. Sistemas Mecánico y Electrónico de un Spin Coater y Dip Coater basado en Tecnología de Código Abierto Resumen: Se presenta la construcción de un spin coater y dip coater basado en tecnología de código abierto. Se detalla el sistema mecánico así como la relación de engranes implementados. También, se habla del sistema electrónico así como el control de los equipos. Los instrumentos fueron ensamblados utilizando materiales de bajo costo y comparten una unidad de control común la cual fue programada en un microcontrolador Arduino. El rango de velocidad total de los instrumentos es de 300 a 10.000rpm para el spin coater y de 0,6cm/h a 30cm/min para el dip coater. Se da una pequeña reseña del funcionamiento de los dos equipos y su utilidad. En ambos casos se comparan de manera favorable con modelos comerciales. Palabras clave: Spin coater, dip coater, Arduino, dnstrumentación de bajo coste, deposición superficial. 1 1. INTRODUCTION A novel low cost method for the design and construction of prototypes of a spin coater and dip coater are presented. Each device is made of inexpensive and open source based mechanical components, at a fraction of the commercial cost and with operating parameters that compare very favourably to the equivalent commercial models. Furthermore, the control units of the spin coater and dip coater utilizes the same Arduino based microcontrollers and are interchangeable, needing only to be reprogrammed in order to be used in either one of the two instruments. Open source technology has become one of the most powerful tools in order to design and build low-cost equipment. Nowadays, there are many applications which use open source technology like 3D printer, cell phone operating systems, software apps, robots, low-cost laboratory equipment, as an integral part of the manufacturing process. Fisher D. K et al. (2012) – Herrera R. (2013). This paper presents a method in which open source technology has been utilized to build a spin and a dip coater. Besides the obvious cost advantage of building your own scientific equipment, another goal has been the opportunity to take complete control of the all the variables involved in the process of coating of the films. Two of the most common methods by which to obtain thin films by deposition from a solvent are spin coating and dip coating. In spin coating a small amount of solution is deposited onto the centre of a substrate which is subsequently spun at high speeds. Spin coating is widely used in micro fabrication, where it can be used to create thin films with thicknesses below 10 nm. In spin coating the there are various parameters that need to be taken into consideration. Among them are the speed of spinning, the viscosity and concentration of the solution, acceleration, spin time and exhaust. However, the process parameters vary greatly for different materials and substrates so there are no fixed rules for spin coat processing, only general guidelines. Of critical importance is that the process is reproducible. Factors that affect the coating process [email protected]. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 54 Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2 _______________________________________________________________________________________________________________________________ include speed of spinning, acceleration, spin time, exhaust, the viscosity and concentration of the solution, Hall D. B et al. (1998). Another important factor in spin coating is repeatability, as subtle variations in the parameters that define a spin-coating process can result in drastic variations in the coated film. Dip coaters are designed to deposit layers of materials in a controlled and repeatable way. Dip coating is used for the fabrication of thin films by self-assembly. of controlled thickness, determined mainly by the deposition speed and solution viscosity There are, just as in spin coating, a variety of factors to account for when determining the final state of the thin film when dip coating a given substrate. Among the factors, that affect the process are the submersion time, withdrawal speed, number of dipping cycles, solution composition, concentration and temperature and environmental humidity. It works as a substrate is submerged in a solution and then in a controlled and constant fashion retracted from the solution, Puetz J. et al. (2004). Dip coaters provide homogeneous and smooth films. The thickness and internal layer structure of such films can be adjusted by altering the concentration of the solution, retracting speed and/or by having multiple dipping cycles. Therefore, given their ease of use, spin and dip coaters are amongst the most ubiquitously used instruments for the fabrication of thin films in many laboratories. In both cases, care should be taken to be able to deposit the thin films in such a way as to achieve the desired characteristics regarding, film thickness, homogeneity and reproducibility of the thin films. Often commercial spin and dip coaters are prohibitively expensive and may have features are not necessarily needed for fabrication of thin films. To this end, there have been several reports of the construction of either low cost spin coaters or dip coaters in literature, Fardousi M. et al. (2014)Leal D. et al. (2011). Our design offers solution to this problem by describing a low cost method with a flexible controller that can be used to control either of the low instruments, Loza Matovelle D. et al. (2014). An extensive description of the mechanical structure and electronic control system is presented for each of the two instruments. 2. RESULTS AND DISCUSSION Figure 1. An expanded view of the 3D model of the spin coater. Table 1. Nomenclature of the parts of the spin coater. Part Nr. Name 1 Base 2 Metallic support 3 Rivet 4 Electric motor 5 Support shaft 6 Electric motor support 7 Bolt 8 Motor shaft 9 Motor shaft guide 10 Superior rotating plate 11 Body protection 12 Superior protection 13 Fixed superior plate Computer numerical control (CNC), “The fundamentals of CNC” Apr. (1997), processes have been used to build the mechanical components, such as plates and shafts; thus, assuring quality and precision regarding the overall functionality of the final setup. Because of the simplicity of the rotating mechanism, composed of the electric motor, motor shaft, and superior rotating plate, as shown in Figure 2, the losses in power and speed of the rotating plate due to friction can be neglected. 2.1 Construction of the spin coater The three main components in the construction of the spin coater were; the mechanical system, the electronic control system and the user interface. The three main stages involved in the construction of the mechanical system of the spin coater were; the 3D prototyping, analysis of the mechanisms, and its manufacturing. A 3D model, as shown in Figure 1 and Table 1, was built in order to assure functionality of the system. It went through an iteration process since some adjustments had to be performed on the 3D models until the final assembly was completely developed. Shaft Electric Motor Rotating Plate Figure 2. Schematic diagram of the rotating transmission mechanism. As the electric motor is fixed to a support, and the forces generated from the testing material along the axial direction are considerably small, there is no presence of axial movement that can affect the functionality of the setup. Additionally, to prevent radial displacements, there is a metallic part that serves Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater _________________________________________________________________________________________________________________________ as a guide and support of the motor shaft; thus, ensuring the pure rotational movement which is indispensable for the equipment functionality. 2.2 Construction of the dip coater Similarly to the spin coater, the dip coater device consists of three main parts; the mechanical system, the electronic control system and the user interface. The mechanical part of the system was designed in the same fashion as for the spin coater. A 3D model, as shown in Figure 3 and Table 2, was developed so that kinematics and functionality analysis were performed towards an adequate performance of the dip coater setup. 55 and worm wheel gear, the second gearbox consist of spur gears as does the third one. In order to get the vertical movement, a rack and pinion mechanism has been implemented. All these mechanisms are susceptible of power losses due to inherit efficiency of each type of gear, sliding effect, friction, and windage, Chaari F. et al. (2012). Most of the power losses are dissipated in a form of heat and it is more evident when the mechanism works at high rpms. Since the dip coater mechanism work at relatively low speeds, the power losses could be neglected. The estimation of the power losses as well as the equations and conditions that govern these phenomena are out of the scope of this paper. To motion the system at different speed ranges, two DC motors, two power sources of 5 and 24 V along with the transmission system are available. The speed is controlled both electronically and mechanically. A pinion-rack system connected to the gearboxes enables the conversion of rotary motion to linear motion. To achieve as wide a range of velocities as possible the system was fitted with two interchangeable wheels. The larger wheel has a radius eight time the smaller wheel, meaning that the larger wheels will result in eight times the velocity of the smaller wheel for any given voltage, see Figure 4. As the system encompasses two independent DC motors, this effectively results in four distinct velocity ranges, see Figure 5. Furthermore, as both motors make use of the same axis, the one that is not in use must be manually disengaged before starting a new test to avoid damage to the mechanical system. Figure 3. An expanded view of the 3D model of the dip coater. Table 2. Nomenclature of the parts of the dip coater. Part Nr. Name Quantity 1 Rod 4 2 Base 1 3 Shaft 7 4 Electric motor 2 5 Gearbox I 1 6 Gearbox II 1 7 Gearbox III 1 8 Wheel 1 9 Rack gear 1 10 Removable plate 1 11 Bolt 4 Figure 4. Sketch of the side by side view of the two wheels used for the dip coater. The smaller wheel has a radius eight times smaller than the larger wheel, meaning that for any given voltage its dipping speed would be eight times slower. As the transmission system of the dip coater mechanism is more complex than that of the sin coater, it is essential to ensure the accuracy on the built parts as well as good quality off-the-shelf parts, such as gearbox, to guarantee the performance of the results obtained with this setup. This means that the settings of the gearboxes, motors, and rack and wheel mechanisms should be secured to avoid vibrations which otherwise could be transmitted to the sample and cause defects such as jumps and holdups during the experiments. The mechanical system must also be very robust, and assembled on a totally flat surface. To this end, the base of the system was fitted with a protective layer of thick rubber. The most salient feature of the transmission system is its three compound gear combinations. The first train contains a worm Figure 5. Sketch of the top view of the mechanical structure of the di coater with two independent DC motors. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2 56 _______________________________________________________________________________________________________________________________ 2.3 Transmission train of the dip coater Given the fact that rotational movement has to be translated to linear displacement, a mechanism of three gear boxes is assembled. The gear transmission system is composed by three gear boxes with different gear ratio each, as shown in Figure 6, in order to get the final linear velocity on the rack. To determine the gear-ratio of each gear box is important to get the teeth number of each gear as it is presented in Table 3. Table 3. Teeth number distribution of the gears of the transmission train. Part Nr. Number of teeth N1 1 M1 DC Motor N2 42 N3 12 N4 42 M2 DC Motor N5 8 N6 34 N7 12 N8 34 N9 12 N10 36 N11 12 N12 36 N13 12 N14 36 N15 12 N16 36 N17 8 N18 34 N19 12 N20 36 N21 78 N22 88 N23 12 Two motors can be engaged to get the desired rack linear velocity. If M1 (see Figure 5) is utilized, the rack velocity is computed by using the relation from multiplying I1, I2, and I3. If M2 is engaged, the output velocity is then calculated by using the result of multiplying I2 and I3. Two pinions are available to control the linear velocity. The radio of the biggest gear is eight times larger than the radio of the small one. The linear velocity can be computed as in Equation (1). Vsal sal R (1) Where, Vsal is the linear velocity of the rack, ωsal is the angular velocity of the pinion (N21 or N23), and R is the radio of the pinion (N21 or N23). The transmission system is designed is such a way that the total range of velocity varies from 0.6 cm/h to 30 cm/min. Although some inherit losses of the gearboxes can derivate in variations that can affect the final linear speed, this effect can be compensated by the speed controller developed in this study. 2.4 Electronic system of the spin and dip coater A great advantage of the designed systems is the use of one single control unit. A schematic view is presented in Figure 6. Figure 6. Schematic overview of the electronic system of the spin and dip coater. The electronic components of the spin and dip coaters are is based on open-source Arduino platform. A UNO board is used to control the Dip and Spin coater because of machine requirements as well as for ease of handling. In order to enter and show both speed and operating-time variables an embedded Arduino shield that has a keyboard and a liquid crystal display was implemented. Entered variables are sent to the main program into the Arduino board, which uses pulsewidth-modulated signal to control the motor. However, the control board sends a low-level-current signal, which cannot be connected directly to the motor. This is the main reason why a L298N H-bridge shield is added to the electronic component. The shield amplifies the Arduino UNO signal so that the motor can spin. Furthermore, the dip coater mechanical design involves two motors with slow and high revolution models. The first motor works with 24 volts and the second with 5 volts, which means that the H-bridge shield requires two power sources and a commutable switch to avoid short circuits. Besides, two hand switches are used to turn on/off DIP coater controller and motors. 2.5 Control system of the spin and dip coater The control system of both the spin and dip coater have been developed with Arduino UNO, Arduino Uno (2015). The purpose of the control system is to drive the device. Its main component is an Arduino UNO free microcontroller. It is able to receive data from the user interface, process the data and to send it to the DC motor. The microcontroller drives the device by using an open-loop control algorithm in order to regulate the speeding spin. The control system is responsible for maintaining constant speeds and spin duration according to user selection. The rotational movement of the spin coater is provided by a single 12W DC electric motor. The speed of the motor is controlled by varying the voltage according to the pulse width modulation technique (PWM). The Arduino UNO sends bits between 0 and 255 to control the motor. The process begins with a start signal. After that, speed and operation time must be entered. The input variables of Arduino Uno are Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Mechanical and Electronic Systems of an Open Source Based Spin and Dip Coater _________________________________________________________________________________________________________________________ reflected in PWM signals that permit to control motor duty cycle. Speed variations of the spin coater were conditioned to be between 300 and 10000 rpm for up to three minutes. Similarly, for the dip coater, the connection between the microcontroller and the Arduino DC motor is achieved by a L298N shield to control the two motors, and both the speed and direction of the rotation. A complete diagram of the mechanical and electronic components is shown in Figure 7. For both systems a KeyPad and LCD was employed which provides a graphical and simple to use controlling device. A complete diagram of the mechanical and electronic components is shown in Figure 7. 57 The purpose of this is to dispense the fluid on top of the substrate and to spread the fluid over the substrate. This is followed by an instantaneous switch in velocity up to anywhere from 1000 to 10000 rpm. The purpose of this high speed spin step is to thin the fluid, to eliminate excess solvents from the resulting film by drying it. The dip coater system allows the deposition of thin films at speeds ranging between 0,6 cm/h and 30 cm/min with an error of ±2 % due to voltage variation of the mains network. The electronic control system and user interface are basically identical to that of the spin coater, with the added option to change the direction of the rotation. This is due to the fact that often different speeds are required for approaching (lowering) and retraction (lifting) of the sample. Before each experiment the user selects the approaching and retracting speeds independently with push button switches. 2.4 Mechanical maintenance The amount of time that the system is retracting can also be set. However the system is designed such that the approach takes place by keeping the approach button pressed in. This facilitates the entry of the sample probe into the solution, as it offer a higher degree of control to terminate the approach at exactly the desired point, which is usually just beneath the solution level, when the sample is totally immersed into the solution. It is also a practical measure as approaching speeds are generally much higher than retraction speeds. Performing maintenance to the testing equipment is very import to ensure accurate, reliable, and timely testing. Also, authorized personnel should do the tests to guarantee the correct operation of the equipment (spin and dip coater) as it is stated in the 5.5.3 item of the ISO/IEC 17025(2005) (E) The retraction speed is considered considerably more critical as it must be very uniform and constant. To this end the user can select the time it could take for the sample to withdraw from the solution. The available options range from minutes to hours, even for samples as small 1x1 cm2. Activities such as cleaning and lubrication are implemented periodically for the equipment. This is based on a preventive maintenance plan developed by the manufacturing processes laboratory, under which the new equipment is operating. Since the majority of the equipment is constructed from steel, lubrication has to be added carefully to prevent it from corrosion. The equipment shall not be exposed to high temperatures (above 210 °F), Chaari F. et al. (2012), because the acrylic and plastic gear-boxes (for the dip coater) could deform or melt easily, then affecting the performance and results of the tests 3. CONCLUSIONS Figure 7. An overview of the mechanical and electronic components used. 2.4 Operation of the spin and dip coater In the case of the spin coater, the substrate is mounted on the spinning plate of the spin coater using a double-side tape. . The system allows depositing thin films of any dissolved materials at rotational speeds between 300 and 10000 rpm with an error of ± 1 % rpm. The magnitude of variation of the spin velocity is constant and attributed to the fluctuations of the mains voltage which feeds the Arduino. It is comparable to many commercial models and does not impede the reproducibility of the obtained thin film. Typically for spin coating the user selects two velocities for each deposition. A low velocity of 500 rpm is initially chosen for about three seconds. The mechanical and electronic systems of an open source based, low cost, spin and dip coater have been presented and discussed. The presented models provide a proven method to manufacture high quality scientific instruments for thin film deposition by using readily available mechanical parts and open source software. The instruments are easy to use and program. A description of their mechanical maintenance is also given. The mechanical properties of the spin coater (speed range from 500 to 10,000 rpm) and dip coater (withdrawing speed range: from 0,6 cm/h to 30 cm/min) compare favorably with commercial models. The presented models will allow research groups the possibility to prepare thin films with an accuracy that was previously out of reach due to the prohibitive costs that until very recently were associated with such instruments. ACKNOWLEDGMENTS This work was supported by the Prometeo Project of the Ministry of Higher Education, Science, Technology and Innovation of the Republic of Ecuador (SENESCYT). Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Segura Luis. J.1; Loza Matovelle David1; Guerrero Víctor H.2; Reza Dabirian1, 2 _______________________________________________________________________________________________________________________________ REFERENCES Arduino Uno (2015), available https://www.arduino.cc/en/Main/arduinoBoardUno at ; Chaari F., Romdhane M. B., Baccar W., Fakhfakh T. and Haddar M. (2012), Trans. Appl Theoretical Mechanics , 2, pp7-11. El-Yamny S. and Abdel-Rafea M., Mod J. (2012). Phys. 3, pp1060-1069. Fardousi M., Hossain M. F., Islam M. S., and Ruslan S. R., Mod J. (2014). Sci. Technol. 1, pp126-134. Fisher D. K. and Gould P. J. (2012), Mod. Instrum. 1, pp8-20. Gómez-Aguilar R. and Ortiz-López J. (2011), Lat. Am. J. Phys. Educ. 5, pp368-373. Hall D. B., Underhill P., and Torkelson J. M. (1998), Polym. Eng. Sci.,38, pp 2039-2045. Herrera R. (2013), “Herramientas de Software Libre para Aplicaciones en Ciencias e Ingeniería”, Rev. Politécnica, 32, pp. 2-8. ISO/IEC 17025 (2005), General Requirements for the competence of testing and calibration laboratories. Leal D., García L., Moronta1 D. and Mantilla J. (2011), Rev. Fac. Ing. U.C.V., 26, 1, pp. 143–148. Loza Matovelle D., Guerrero V. H. and Dabirian R. (2014), Momento, 49, 13-18. Pearce J. M. (2012), Science 337, pp1303-1304. Puetz J. and Aegerter M. (2004), “ Sol-Gel Technologies for GlassProducers and Users”, Springer US, pp. 37-48. “The fundamentals of CNC” Apr. (1997), available at :http://www.mmsonline.com/articles/key-cnc-concept-1the-fundamentals-ofcnc Revista Politécnica - Marzo 2016, Vol. 37, No. 2 58 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos _________________________________________________________________________________________________________________________ 59 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 1Escuela Politécnica Nacional, Facultad de Ingeniería Mecánica, Quito, Ecuador Resumen: El trabajo aquí presentado consiste en el diseño del sistema de frenado regenerativo presente en los coches híbridos y eléctricos. Se parte de los conceptos fundamentales que son la base para una comprensión global del proceso de regeneración de energía. Así mismo, se analiza los elementos del sistema y la forma en la que influyen directamente en la generación de energía. También se presenta una clasificación general de las diferentes configuraciones de los autos híbridos, que modifican el proceso de frenado regenerativo. El requisito específico que da lugar al desarrollo del proyecto es dar a conocer el uso de las energías alternativas que son comúnmente desperdicio, pero que con el avance de la tecnología se puede aprovechar para la reutilización y la aplicación en diferentes procesos. Palabras clave: Frenos Regenerativos, Autos Híbridos, Energía Eléctrica, Sistema de Frenado. Design of the Regenerative Braking System for Hybrid Cars Abstract: This work presents the design of the regenerative braking system in hybrid and electric cars. It is important to know the fundamental concepts that are the basis for a complete understanding of process of energy regeneration. Likewise, the system components and how they are directly affect power generation, is analyzed. A general classification of different configurations of hybrid cars, which ones modify the regenerative braking process, is also presented. The specific requirement that leads to the development of the project is to introduce the use of alternative energies that are commonly wasted, but with the advancement of technology can be leveraged for reuse and use in different processes. Keywords: Regenerative Braking, Hybrid Cars, Electric Power, Braking System. 11. INTRODUCCIÓN Actualmente la demanda energética a nivel mundial por parte de la sociedad y el creciente número de vehículos provocan un notable aumento en la contaminación ambiental, por ello es necesario regular y utilizar la energía disponible de forma eficiente. El avance tecnológico permitió la creación de vehículos híbridos que combinan un motor de combustión interna y un motor accionado por energía eléctrica, que en consecuencia reducen significativamente la emisión de gases tóxicos y el consumo de energía. En el sistema de frenos regenerativos se tiene como finalidad principal, almacenar la energía que se pierde en forma de calor durante el frenado en vehículos a combustión interna o estándar, y poder utilizar gran parte de esta energía en otro instante cuando el vehículo lo requiera, ya sea para el propio desplazamiento o para el consumo en otros aparatos del automóvil hibrido. Ambos, requieren diferentes tipos de energía. El motor de combustión interna consume combustible, y el motor eléctrico requiere de energía eléctrica. 2.1 Motor de Combustión Interna Un motor de combustión interna funciona en base al consumo y quemado de una mezcla comprimida en distintas relaciones de aire y combustible, el proceso se lleva a cabo dentro de un cilindro o cámara de combustión que permite incrementar la presión interna y generar con ello la suficiente potencia hacia el pistón (Biblioteca Virtual). A continuación la Figura 1. De acuerdo a la mezcla aire combustible y la relación que presenten estos dentro de la cámara del cilindro se pueden diferenciar 4 tiempos en un motor de combustión interna los cuales son: Admisión, Compresión, Combustión, Escape. 2. SISTEMA DE FRENO REGENERATIVO Un sistema de frenos regenerativos se usa en vehículos híbridos los cuales combinan dos tipos de motores: un motor de combustión interna y un motor eléctrico. [email protected] Revista Politécnica - Marzo 2016, Vol. 37, No. 2 60 Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 _______________________________________________________________________________________________________________________________ provocando una explosión y un rápido desplazamiento del pistón en sentido descendente como se observa en la Figura 4. Figura 4. Etapa de Combustión (Motores Térmicos) Figura 1. Motor de Combustión Interna (El Rincón de la Tecnología) Admisión: En la etapa inicial de este tiempo el pistón se encuentra en movimiento descendente a través del cilindro mientras la válvula de admisión inicia su apertura; Paralelamente la válvula de escape se cierra, de modo tal que únicamente existe el ingreso de la mezcla de aire-combustible; como se observa en la Figura 2. Escape: Una vez que el pistón se encuentra en el PMI, se abre únicamente la válvula de escape, mientras el pistón inicia nuevamente su movimiento ascendente para luego permitir el desplazamiento de los gases generados durante la combustión, logrando que estos salgan directamente por el tubo de escape y por consiguiente a la atmosfera como se observa en la Figura 5. Figura 5. Etapa de Escape (Motores Térmicos) 2.2 Motor Eléctrico Figura 2. Etapa de Admisión (Motores Térmicos) Compresión: En la Figura 3 se observa que en este tiempo las válvulas de admisión y escape están completamente cerradas, el pistón que se encuentra en el PMI inicia su movimiento ascendente comprimiendo la mezcla aire-combustible del tiempo anterior, logrando cada vez un espacio más pequeño, hasta que llega a su volumen mínimo en el PMS. Figura 3. Etapa de Compresión (Motores Térmicos) Combustión: Cuando el pistón del cilindro llega al PMS y la mezcla aire-combustible ha alcanzado su máxima compresión, se genera una chispa para el encendido de la mezcla Un motor eléctrico es una máquina eléctrica rotatoria que transforma la energía eléctrica en energía mecánica mediante un proceso electromagnético. Ofrece múltiples ventajas en relación al motor de combustión interna, como es la mayor eficiencia, limpieza de las partes, comodidad debido al tamaño, además de la seguridad de funcionamiento. El funcionamiento del motor se basa en la interacción entre campos magnéticos y corrientes eléctricas circulantes en una determinada dirección que dan como resultado un par o torque respecto un eje de giro, como se observa en la Figura 6. Donde se muestra como circula una corriente eléctrica, es por un material conductor que se encuentra dentro de la acción de un campo magnético. Al colocar una espira dentro de un campo magnético en el que fluya una determinada intensidad de corriente, el campo ejercerá una fuerza tangencial a la espira dando lugar a un momento de fuerzas, produciendo una rotación y dicho movimiento será el producto de las interacciones electromagnéticas de donde la energía inicial eléctrica será transformada a energía mecánica de rotación aprovechable para otra aplicación. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos _________________________________________________________________________________________________________________________ 61 El principio de funcionamiento de una batería eléctrica está basado esencialmente en un proceso químico reversible llamado reducción-oxidación (redox). Un proceso en el cual uno de los componentes se oxida, es decir pierde electrones y el otro componente se reduce o gana electrones de tal forma que ambos no resultan consumidos sino únicamente cambian estados de oxidación y dependiendo las circunstancias externas, vuelven a su estado original, como por ejemplo el cierre del circuito eléctrico o la aplicación de una corriente externa. Figura 6. Campo de fuerzas magnéticas (Motor eléctrico) 2.3 Generador Al contrario de un motor eléctrico que requiere de energía eléctrica para operar, el generador por intermedio de un movimiento rotario produce energía eléctrica, es decir convierte la energía mecánica inicial en corriente eléctrica susceptible de alimentar a una gran variedad de aparatos. Esto sigue el principio de la ley de inducción electromagnética, donde al tomar en cuenta el giro de una espira dentro de un campo magnético se producirá una variación del flujo magnético de la espira a través del campo, generando una corriente eléctrica. La fuerza electromotriz (f.e.m.) inducida depende del ritmo de cambio del flujo, sin importar el número de líneas de campo atravesando el circuito, sino su variación por unidad de tiempo. Se produce debido al movimiento relativo de los conductores sobre el estator dentro de un campo magnético. 2.3 Inversor Un inversor transforma la electricidad de corriente continua (C.C) almacenada en baterías eléctricas en energía de corriente alterna (C.A) y de igual forma en sentido opuesto de C.A a C.C. Los inversores eléctricos disponen de funciones para iniciar y finalizar la actuación de los generadores automáticamente. Es por esto que su aplicación en el sistema de freno regenerativo es necesaria, además, la capacidad del inversor para procesar distintas formas de energía de entrada, lo convierte en una opción necesaria en aplicaciones de energía portátil, de respaldo y sin conexión directa a la red como en vehículos híbridos y eléctricos. 2.4 Baterías Eléctricas Las baterías eléctricas son dispositivos que tienen la capacidad de almacenar electricidad en forma de energía química para posteriormente mediante procesos electroquímicos producir energía eléctrica. La gran utilidad de estos dispositivos es que permiten repetir dicho proceso un determinado número de veces. Un circuito eléctrico cerrado inicia una reacción electroquímica de reducción oxidación entre los electrodos, donde cada electrolito reacciona con un químico o elemento especial. En el ánodo, una reacción de oxidación provoca una transferencia de electrones desde una sustancia o compuesto hacia otra, formando un compuesto ionizado negativamente, es decir con exceso de electrones, para el cátodo en cambio el electrolito y el agente químico forman una reacción de reducción, es decir cuando un reactivo químico acepta electrones. 2.5 Configuraciones del Vehículo Hibrido Los distintos tipos de vehículos híbridos basan su diferencia en la posición y configuración de sus elementos en cómo están relacionados y la interacción entre ellos permiten mejorar la autonomía del automóvil, dependiendo del tipo de configuración dada, el sistema de frenos regenerativos tendrá una mayor o menor utilidad. El factor determinante para un adecuado diseño es el sistema completo de transmisión ya que este permite en un primer caso transferir independientemente la potencia del motor de combustión interna o del motor eléctrico hacia las ruedas motrices y en un segundo caso transmitir conjuntamente la potencia generada por ambos motores, estos elementos de transmisión están sometidos a esfuerzos constantes de torsión y flexión. En el caso de transmisión de potencia únicamente por el motor de combustión interna, esta empieza en el volante de inercia conectado al embrague, seguido por el acople a la caja de cambios y terminando en el árbol de transmisión que otorga el movimiento final a las ruedas del vehículo. Para el caso de la transmisión de potencia a través del motor eléctrico el seguimiento es similar donde se mejoran los procesos de transmisión de movimiento (caja de cambios) debido a que las revoluciones entregadas por este último son mucho más exactas y precisas. Al disponer de un motor delantero con tracción delantera o con un motor trasero de tracción trasera no es necesario el árbol de transmisión ya que el par generado por cada motor es transmitido directamente a través de ejes más cortos. 2.6 Híbrido Conectado en Serie En un vehículo hibrido al estar conectado en serie el motor de combustión interna proporciona únicamente el movimiento de rotación hacia un generador eléctrico, donde esta carga Revista Politécnica - Marzo 2016, Vol. 37, No. 2 62 Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 _______________________________________________________________________________________________________________________________ directamente las baterías del vehículo si se encuentran descargadas, o a su vez transmite una mayor potencia hacia el motor eléctrico dependiendo del requerimiento energético del vehículo. El generador se utiliza principalmente para extender autonomía del automóvil permitiendo ampliar las prestaciones de este, de tal forma que en la mayoría de los kilómetros se utiliza la energía proveniente de las baterías y en el caso que el viaje exceda las prestaciones de la batería o su capacidad el generador eléctrico se enciende. La corriente producida por el generador es rectificada en el inversor/cargador. Dependiendo de varios factores como la capacidad de almacenamiento de las baterías, el espacio disponible en el vehículo, la velocidad o la cantidad de energía disponible se dimensionan equipos generadores de mayor o menor tamaño. La batería se dimensiona en función de los picos de demanda, de tal forma que a altas velocidades solo una parte de la energía eléctrica proviene de las baterías siendo estas las que suministran la potencia necesaria para aceleraciones y adelantamientos, en cambio a velocidades crucero la potencia generada en exceso es utilizada para recargar las baterías. En la Figura 7 se puede observar el flujo energético de cada elemento del vehículo hibrido, durante el frenado regenerativo la propia inercia del vehículo rota el sistema de propulsión o eje de transmisión que produce una energía mecánica directamente sobre el motor eléctrico (que en un inicio otorgaba el movimiento al eje) logrando que de esta forma opere como un segundo generador eléctrico cuya energía es recargada y almacenada inmediatamente en las baterías. utilizados independientemente o simultáneamente si se desea una mayor potencia en el vehículo. Estos 2 sistemas proveen la potencia necesaria a las ruedas y si bien esta configuración es más compleja resulta ser más eficiente debido a que se minimizan las perdidas por conversión de cada tipo de energía. Además, como el aumento de potencia le corresponde directamente al motor de combustión interna es posible la reducción del tamaño de las baterías, el motor a gasolina entra en funcionamiento cuando existe una mayor demanda de energía por parte del vehículo, y al detenerse el vehículo híbrido aprovecha la energía normalmente empleada en frenar para recargar su propia batería. Dentro de los vehículos híbridos paralelos se pueden distinguir dos tipos: los que emplean un generador independiente para cargar las baterías y los que aprovechan el motor eléctrico para funcionar también como generador, este último será el encargado del freno regenerativo permitiendo la desaceleración del vehículo y logrando recuperar energía mientras el motor eléctrico actúe como generador. Un generador independiente en el vehículo híbrido produce notablemente un aumento en la generación de energía eléctrica, sin embargo, no resulta ser la decisión más adecuada ya que conlleva al transporte de elementos más pesados en el automóvil requiriendo a su vez mayor potencia y volviéndolo más costoso. La ventaja de utilizar dicho generador independiente es que al estar diseñado para funcionar únicamente como generador será más eficiente frente a un motor eléctrico que opere paralelamente como generador. Es por ello que se debe realizar un análisis entre peso/beneficio al momento de integrar más elementos al vehículo, ver Figura 8. Al decidir acoplar un generador independiente dentro de la misma configuración hibrida paralela se la clasifica como vehículo hibrido paralelo-serie siendo esta configuración la más utilizada por fabricantes de automóviles como por ejemplo Toyota en su modelo Prius (Página oficial de Toyota). Figura 7. Disposición de Elementos en vehículo Hibrido Serie Figura 8. Configuración de vehículo Hibrido en Paralelo (Aficionados a la mecánica) 2.7 Híbrido Conectado en Paralelo 2.8 Freno Regenerativo En este tipo de configuración el vehículo utiliza dos sistemas de tracción en paralelo de tal forma que estos pueden ser El funcionamiento del sistema de freno regenerativo se da desde el motor de combustión interna del vehículo, una vez Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos _________________________________________________________________________________________________________________________ que el combustible ingresa al motor térmico en este se producen transformaciones de energía el cual desarrolla la potencia necesaria para permitir el movimiento lineal de los pistones hacia el cigüeñal, seguido de ello existe un movimiento rotatorio el cual se lo aprecia directamente en el volante de inercia o cigüeñal. Una vez obtenido el movimiento en el volante de inercia es necesario aumentar o disminuir esta potencia generada a través de diferentes sistemas de transmisión, los cuales por medio de caja de cambios y diferentes configuraciones de engranajes permitirán el desplazamiento del vehículo en las variadas exigencias de la carretera. Paralelamente en este punto existe el sistema de embrague que es el encargado de conectar o desconectar este movimiento rotatorio final a las ruedas del automóvil. 63 3.2 Motor de Combustión Interna Permite generar la suficiente potencia para el desplazamiento del vehículo o bien dependiendo de la configuración que se tenga en el automóvil. Esta proporciona el movimiento motriz que será parte del generador eléctrico en una siguiente etapa, estos pueden clasificarse de acuerdo a la disposición de sus cilindros como: motores en línea, motores en V, y motores de cilindros opuestos (Bóxer). Dependiendo de la configuración de cada uno de ellos se verá reflejado en el rendimiento del automóvil. Se debe señalar que si bien existe una gran variedad de motores de combustión interna los más utilizados y escogidos en el empleo del sistema de frenos regenerativos son los mencionados. 3.3 Motor Generador Eléctrico Hasta este punto la similitud con un automóvil estándar es la misma sin embargo como automóvil híbrido existe el motor eléctrico que es responsable de igual manera del desplazamiento del vehículo entregando una potencia mucho más precisa sobre todo en condiciones de baja exigencia, se debe señalar la idea fundamental del vehículo híbrido es su desplazamiento por medio del motor eléctrico y cuando las exigencias del automóvil aumentan. Paralelamente el motor de combustión complementa la falta de potencia, logrando un mayor torque en las ruedas. El motor eléctrico es el encargado de suministrar la potencia necesaria al sistema de engranajes o caja de cambios que logran administrar de manera eficiente el par necesario a las ruedas motrices del automóvil, se pueden clasificar de acuerdo al tipo de corriente utilizada como motores de corriente alterna (motores de jaula de ardilla), motores de corriente continua (motores sin escobillas, los servomotores y los motores paso a paso) y motores universales (funciona como motor de corriente continua o como motor de corriente alterna). Si el automóvil se desplaza a bajas velocidades sin mayor exigencia para el motor eléctrico es posible que únicamente este desarrolle la energía necesaria para el desplazamiento. Cuando el vehículo únicamente se desplaza por la carretera como producto de la inercia que conlleva es posible controlar y permitir que el motor eléctrico invierta su operación y actué como generador eléctrico logrando así, por medio del movimiento rotativo existente la regeneración de energía eléctrica, la cual es almacenada en las baterías del vehículo. El generador eléctrico es el encargado de transformar la energía proveniente en forma mecánica del motor de combustión interna a energía eléctrica administrable por el motor eléctrico, estos pueden ser electromecánicos. Se debe señalar que existen en el sistema de freno regenerativo otros tipos de generadores como electroquímicos, los cuales son básicamente pilas o baterías recargables de acumuladores, basados en fenómenos electroquímicos y generadores fotovoltaicos correspondientes a los paneles fotovoltaicos. Es posible regenerar energía que normalmente se pierde al frenar el vehículo y se manifiesta en forma de calor en el instante cuando se presiona el pedal del freno, en este punto en un vehículo híbrido el motor eléctrico invierte su polaridad iniciando su operación como generador. 3.4 Inversor y Baterías Si bien la energía recuperada será menor, al magnificar este método se visualiza un aumento considerable en la energía disponible de las baterías, logrando una mayor eficiencia total del sistema. Con la energía eléctrica recuperada y almacenada en las baterías es posible utilizarla como fuente propia de desplazamiento en el vehículo. 3. ANÁLISIS DE ALTERNATIVAS 3.1 Sistemas Necesarios El sistema de frenos regenerativos está compuesto de varios elementos que permiten desarrollar correctamente el proceso de regeneración y almacenamiento de la energía, los más importantes son el motor de combustión interna, motor/generador eléctrico, inversor, baterías y la transmisión. Encargado de convertir el voltaje en la entrada, de corriente continua proveniente de las baterías del vehículo a corriente alterna apta para el motor eléctrico de acuerdo a la magnitud y frecuencia deseadas del sistema. Las baterías serán las encargadas de almacenar la energía eléctrica generada previamente. 3.5 Transmisión Se entiende como transmisión a los equipos y elementos que permiten el acople y las conexiones entre los demás subsistemas como pueden ser engranes rectos, engranes helicoidales, conexiones por cadena incluyendo acoples mediante engranes epicicloidales, estos elementos requieren de un gran análisis a fin de permitir la correcta transmisión del movimiento, disminuyendo pérdidas por efectos de calor o rozamiento, evitando sobrecargas como producto de aceleraciones o frenadas repentinas en el vehículo. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 64 Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 _______________________________________________________________________________________________________________________________ 3.6 Método de Evaluación El método de evaluación a utilizar será el descrito por el Dr. Carles Riba en su libro Diseño Concurrente [9], el cual se basa en los criterios ponderados, permite decidir entre diversas o varias soluciones donde únicamente basta conocer el orden de preferencia en la etapa de diseño conceptual, es por ello que se recomienda el método ordinal corregido de criterios ponderados que sin la necesidad de evaluar los parámetros de cada propiedad y sin tener que estimar numéricamente el peso de cada criterio, permite obtener resultados globales suficientemente significativos. fabricación y/o adquisición de elementos, así como, accesorios o materia prima que permiten el desarrollo del sistema de frenos regenerativos. 3.9 Funcionalidad Este criterio de valoración es determinante en el desarrollo del sistema de frenos regenerativos ya que permite establecer la relación entre la facilidad y rapidez con que el sistema puede adaptarse a una determinada operación, la cual es de regenerar la energía. 3.10 Facilidad de operación Este método se basa en la formulación de tablas donde cada criterio o solución, se confronta con los restantes criterios o soluciones y se asignan los siguientes valores: 1 (Uno) Si el criterio o solución de las filas es superior o mejor que el de las columnas; 0,5 Si el criterio o solución de las filas es equivalente o igual al de las columnas; 0 Si el criterio o solución de las filas es inferior o peor que el de las columnas. Este criterio de valoración implica directamente el trabajo de cada elemento presente en el sistema de frenos regenerativos, es decir, la facilidad con que estos elementos interactúan, evitando componentes mucho más complejos que incrementan el costo o dificultan la operación del sistema. 3.11 Peso En cada criterio o solución, se deberán sumar los valores asignados en relación a los restantes criterios al que se le añade una unidad (1) para evitar que el criterio o solución menos favorable tenga una valoración nula; después, en otra columna se calculan los valores ponderados para cada criterio o solución. La evaluación total para cada solución resulta de la suma de productos de los pesos específicos de cada solución por el peso específico del respectivo criterio. 3.7 Criterios de Evaluación Los criterios de evaluación se basan en las principales características al momento de comparar vehículos híbridos versus vehículos estándar que no permiten el empleo del freno regenerativo, en este aspecto priman detalles sobresalientes como el costo de cada elemento individual, la funcionalidad de cada equipo permitiendo que cada elemento opere eficientemente con un gasto mínimo de energía, así como la fácil operación de cada uno de ellos sin recurrir a sistemas complejos para su funcionamiento, el peso para cada elemento representa una característica primordial en cuanto a optimización del vehículo híbrido, el tiempo de mantenimiento requerido en cada elemento o equipo es un factor clave para la elección de cada subsistema gracias a que permite una mayor acogida por parte del usuario, se debe mencionar que criterios tales como seguridad de los elementos involucrados y fiabilidad son tomados en cuenta en cada aspecto a evaluar debido a que son criterios netamente inherentes en todo proceso de diseño mecánico. 3.8 Costo El costo total de los elementos que conforman el sistema de freno regenerativo es uno de los aspectos más importantes a tener en cuenta en el diseño mecánico debido que este debe representar un beneficio para el usuario al compararlo con automóviles estándar, por esta razón se deberá buscar un equilibrio entre el costo y la calidad final del diseño permitiendo flexibilizar la eficiencia de la máquina. Se debe mencionar que el costo señalado hace referencia al costo de Este criterio de valoración es determinante en la eficiencia final para el vehículo hibrido, debido a que será necesario el menor peso posible en la maquinaria a fin de conseguir las mejores prestaciones por el automotor sin necesidad de pesos agregados por complejidades del sistema. 3.12 Mantenimiento Como en todo sistema ya sea eléctrico o mecánico, es necesario siempre un correcto y adecuado mantenimiento acorde a las exigencias de operación de los elementos relacionados con el sistema de freno regenerativo, de tal forma que con un mantenimiento a tiempo y un adecuado acceso a los componentes que requieren de revisión es posible la detección y corrección de piezas mecánicas o eléctricas con mayor tendencia a fallas, tales como desgaste y corrosión. A su vez estos elementos que conforman el sistema de freno regenerativo dependen de que los parámetros de causas de fallas sean mantenidos dentro de los límites aceptables, por ello este criterio de valoración es importante a fin de conseguir los mejores resultados de la máquina en todo momento. 3.13 Alternativa de Diseño Seleccionada De acuerdo a los resultados obtenidos de cada sistema del freno regenerativo, el diseño estará configurado como vehículo hibrido en serie y constituido conforme los elementos señalados de Motor de combustión interna en línea 4 cilindros DOHC, Motor / Generador Sincrónico de Corriente Alterna, Inversor con baterías de Ion-Litio y Grupos reductores conformados por engranes helicoidales. 3.14 Descripción General del Sistema de Freno Regenerativo Una vez seleccionados cada uno de los elementos que forman parte del sistema del freno regenerativo, se plantean las características, funcionamiento y ubicación de los mismos dentro del vehículo hibrido. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos _________________________________________________________________________________________________________________________ 65 Primeramente, el vehículo híbrido de configuración en serie pone en evidencia de acuerdo a las valoraciones previas que resulta ser el más eficiente, en comparación con las demás configuraciones hibridas. Sin embargo, este resultado no pretende desmerecer las demás clasificaciones debido a que cada uno tiene sus propios requerimientos funcionales y para el sistema a diseñar propuesto la mejor alternativa radica en la utilización mayoritaria de la corriente eléctrica. El motor de combustión interna seleccionado es de 4 tiempos en línea con DOHC (doble árbol de levas), este sistema será el encargado de suministrar la suficiente energía única y exclusivamente al primer generador eléctrico. El generador seleccionado es sincrónico de corriente alterna. La energía eléctrica producida por este elemento será almacenada en baterías NIMH (baterías de níquel-metal hidruro) o de Ion Litio según sea el caso como en el automóvil Toyota Prius [5]. Sin embargo, para que se desarrolle este proceso es necesario la incorporación de un inversor/cargador que permitirá el paso para la regeneración, donde se adicionará un convertidor DC/DC para el control de energía de regeneración para alcanzar la conversión de la corriente eléctrica alterna en corriente continua almacenable en las baterías. Cuando el vehículo híbrido requiera una mayor potencia, la corriente producida en el primer generador (por parte del motor de combustión interna) pasará directamente al motor eléctrico, entregando una mayor fuerza electromotriz y permitiendo el aumento de la velocidad del automóvil. Si bien bajo esta configuración híbrida seleccionada se dispone de un generador que opera únicamente como tal. La incorporación de un motor eléctrico con las mismas características permitirá el funcionamiento de este elemento en forma de generador siempre y cuando el vehículo opere en marcha neutra. Por inercia propia o cuando inicie el proceso de frenado y en este instante el movimiento producido por las ruedas motrices del automóvil se transmitirá directamente hacia el motor eléctrico que en este caso ya actúa como un segundo generador produciendo corriente eléctrica y conformando el freno regenerativo. Es decir, este permite disminuir la velocidad de desplazamiento del vehículo y regenerar la energía. Al operar el motor eléctrico como generador, la corriente eléctrica producida será re-direccionada hacia las baterías permitiendo recargarlas y utilizar esta energía extra en otro instante. A continuación la Figura 9. Bajo esta configuración se tiene independencia en la ubicación del motor de combustión interna y es posible ubicarlo en la parte posterior del vehículo ya que opera únicamente con el primer generador. El motor eléctrico necesitará un acople con un grupo reductor de engranajes helicoidales que permitan transmitir la potencia necesaria al eje de transmisión del vehículo. Figura 9. Esquema del freno regenerativo 4. DISEÑO DEL SISTEMA 4.1 Cálculo de la Potencia del Motor En las especificaciones dadas para el sistema de freno regenerativo deben considerarse elementos livianos a fin de mejorar la eficiencia del vehículo, el motor de combustión interna deberá tener un equilibrio entre un peso adecuado y una potencia acorde a las exigencias del usuario permitiendo una potencia mínima estable que logre mover eficientemente al generador eléctrico, además debe ser compacto y que permita su fácil ubicación en el vehículo. El requerimiento de potencia del motor de combustión interna es un parámetro importante a tener en cuenta, debido a que permitirá una adecuada transmisión del par motriz hacia el generador eléctrico por medio de una velocidad y aceleración angular seleccionada y que permitirán la recarga de las baterías una vez producida la corriente eléctrica en el generador. La potencia generada dependerá directamente de la cilindrada del motor, de acuerdo a los automóviles existentes se presentan cilindradas desde 1400cm3, y debido a que es un automóvil liviano, compacto que no estará solicitado a grandes exigencias de trabajo más que únicamente el desplazamiento de los usuarios y pequeñas cargas se selecciona dicho valor; Se calcula la superficie de pistón que se encuentra directamente en contacto con la mezcla aire-combustible proveniente de las válvulas de admisión y escape dentro de la cámara del cilindro. A continuación la Figura 10. Se realizó una comparación entre valores de diámetros y carreras adecuadas que cumplan con la cilindrada del motor, sin embargo, la mejor selección resulta ser con diámetro de 73,70 mm y carrera de 83 mm otorgando una cilindrada igual a 1399,26cm3, esto posibilita una correcta selección del motor de combustión interna sin necesidad de sobredimensionar elementos del tren de propulsión que al final repercuten en el propio peso del vehículo. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 66 Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 _______________________________________________________________________________________________________________________________ mejora la eficiencia del vehículo por lo cual se igualan el número de dientes para N2 y N4 en el primer caso (impulsores) y N3, N5 en el segundo caso (impulsados), de acuerdo al análisis realizado en la simulación de Inventor AutoDesk, el número de dientes de los engranes impulsados será de N 3 =26,12 aproximadamente 26 dientes. 4.1.4 Cálculo de Revoluciones de Engranes Para obtener las revoluciones de cada engrane del reductor de velocidades se despeja w5 obteniendo un valor de 1817,75 [rpm], el reductor de velocidad opera aproximadamente a 1800 rpm, Se conoce que w2 es igual a 4800 rpm por ser el piñón o engrane impulsor inicial del motor de combustión interna y w3 es igual a w4 por encontrarse ambos engranes en el mismo eje de operación y por consiguiente giran a la misma revolución 4.2 Cálculo de Pares de Torsión de Engranes Figura 10. Elementos Biela-Pistón Para un valor de 3000 [N] de la fuerza generada por la combustión de los gases sobre el pistón se puede conocer el valor del torque generado en el motor dando como resultado 123 [Nm] de par motor. De acuerdo al resultado obtenido se tiene una presión efectiva de 11,04 bar con lo cual se calcula la potencia total del motor de combustión interna. Las revoluciones del motor (n) corresponden a 4800 rpm con ello la potencia total generada por el motor de combustión interna será de aproximadamente 62 [KW] que serán entregados al reductor de velocidades previo a la conexión con el generador eléctrico. 4.1.1 Transmisión, Tren de Engranes La potencia calculada del motor de combustión interna permite diseñar el tren de engranajes o reductor de velocidades que será acoplado al generador, las revoluciones de operación del generador son de 1800 [rpm] de acuerdo a la frecuencia de trabajo (60 Hz), esto obliga al motor de combustión interna que entrega 4800 [rpm] a reducir sus revoluciones hasta un valor óptimo de operación cercano a 1800 rpm, para ello se diseña el subsistema que estará compuesto por 4 engranes reductores. Con las revoluciones obtenidas para cada engrane del reductor de velocidades se procede a calcular los pares de torsión de acuerdo a la relación de potencia de cada uno de ellos. 4.2.1 Diámetros de Engranes De acuerdo a los valores obtenidos se procede a calcular los diámetros para los engranes del reductor de velocidades, el paso diametral escogido es de 7 [dientes/pulgada]). d2 = d4 = 2,285 [pulg] d3 = d5 = 3,714 [pulg] Los diámetros obtenidos serán los valores requeridos para realizar el cálculo en el diseño de engranes. 4.2.2 Velocidades de línea de paso Es la velocidad lineal de un punto sobre el engrane en el radio del círculo de paso. La velocidad de la línea de paso Engrane 2,3 se la muestra en la Ecuación 1. pies V23 = 2871,41 [ ] (1) min Velocidad de la línea de paso Engrane 4,5. Ecuación 2. 4.1.2 Cálculo de la Relación de Transmisión pies V45 = 1767,021 [ Para el cálculo de la relación de transmisión se escogen las revoluciones pertenecientes al reductor de velocidades y la revolución final que se pretende lograr para los engranes las cuales son w2 igual a 4800 [rpm] y w5 igual a 1800 [rpm] 4.1.3 Cálculo del Número de dientes Para un reductor de velocidad de menor tamaño se busca que el número de dientes para los engranes impulsores e impulsados sean iguales debido a que el tamaño final del reductor está limitado por su volumen y la disponibilidad de espacio en el vehículo hibrido, en este caso al ser más pequeño min ] (2) 4.3 Cálculo de Cargas Transmitidas Para el diseño de engranes se especifica la potencia y la velocidad. Las cargas transmitidas al engrane 2,3, están en la Ecuación 3. t W23 = 955,50 [lbf] (3) Las cargas transmitidas al engrane 4,5, están en la Ecuación 4. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño del Sistema de Freno Regenerativo de Automóviles Híbridos _________________________________________________________________________________________________________________________ t W45 = 1552,68 [lbf] (4) El valor obtenido correspondiente al engrane 4 es el más crítico por ser el de menor tamaño (se debe señalar que el engrane 5 es de mayor tamaño por lo cual no es el elemento crítico a tomar en cuenta inicialmente) y el engrane 4 deberá transmitir la mayor cantidad de carga en el tren de engranajes, se realizan los cálculos respectivos en base a este elemento, el cual soportará los mayores esfuerzos de contacto que son un factor limitante. En la Tabla 1 se presentan los valores obtenidos para el grupo de engranes reductores calculados inicialmente. Tabla 1. Valores Obtenidos de Engranes para el Reductor de Velocidades. Para dicho valor de potencia electromagnética no se han tomado en cuenta las propias pérdidas de potencia por efectos de fricción y calentamiento entre los elementos implicados como los engranes y el rotor del generador, la potencia real del generador es de aproximadamente 53 [kW]. 4.5 Consumo y Regeneración de Energía Eléctrica Para determinar el consumo de energía se parte de la potencia entregada por el motor eléctrico, el análisis realizado corresponde a 110 [KW] de potencia los cuales son utilizados durante 1 hora para operar el vehículo, de ello se asumen frenadas por parte del usuario o desplazamiento del vehículo sin aceleración (movimiento por inercia propia) de donde se obtienen los siguientes datos. Tabla 2. Engrane 2 Engrane 3 Engrane 4 Engrane 5 16 26 16 26 4800 2954 2954 1800 Minutos Segundos 3 3,5 4 4,5 5,0 5,5 6 6,5 7 7,5 8,0 8,5 9 9,5 10 10,5 11,0 11,5 12 12,5 13 13,5 14,0 14,5 15 15,5 180,0 210,0 240,0 270,0 300,0 330,0 360,0 390,0 420,0 450,0 480,0 510,0 540,0 570,0 600,0 630,0 660,0 690,0 720,0 750,0 780,0 810,0 840,0 870,0 900,0 930,0 90,97 147,83 147,83 240,22 2,28 3,71 2,28 3,71 2871,41 2871,41 1767,021 1767,021 955,5 955,5 1552,68 1552,68 1,3166 1,3166 1,1751 1,1751 2 2 1,5 1,5 1,1338 1,1338 1,1677 150 150 158 158 25 19 28 22 2,88 x109 1,77 x10 1,77 x10 1,09 x10 9 9 9 2,16 2,76 2,26 2,5 1,31 1,33 1,61 1,43 225 225 275 225 65 65 75 65 Generador Eléctrico Para realizar los cálculos de potencia en el generador eléctrico se toma en cuenta a los elementos con los cuales está conectado y como se revisó previamente en el reductor de velocidades el último elemento que entra en contacto es el engrane 5, de aquí se obtiene el par de torsión adecuado con el cual operará el generador. 4.4 Cálculo de la Potencia Electromagnética La potencia electromagnética es el producto del par electromagnético por la velocidad angular del rotor Tabla 2. Porcentaje de Energía Recuperada al Tiempo Específico de Frenado. Energía Demandada durante 1 hora [W/h]: Tiempo de Frenado o Desplazamiento del Vehículo sin Aceleración durante 1 hora de Funcionamiento 105000 [W/h] Energía Recuperada [W] 5 250 6 125 7 000 7 875 8 750 9 625 10 500 11 375 12 250 13 125 14 000 14 875 15 750 16 625 17 500 18 375 19 250 20 125 21 000 21 875 22 750 23 625 24 500 25 375 26 250 27 125 5% 6% 7% 8% 8% 9% 10% 11% 12% 13% 13% 14% 15% 16% 17% 18% 18% 19% 20% 21% 22% 23% 23% 24% 25% 26% En la Figura 11, se puede observar el porcentaje de energía recuperada aumenta considerablemente conforme el tiempo de frenado es mayor. Porcentaje de energia Número de dientes (N) Velocidad angular [rpm] Par de Torsión [lbf-pie] Diámetro [pulg] Velocidad lineal [pie/min] Cargas Transmitidas Factor Dinámico Ancho de cara [pulg] Factor de distribución de carga Esfuerzo de contacto [Kpsi] Esfuerzo a la flexión [Kpsi] Numero de ciclos [rpm] Factor de seguridad a flexión Factor de seguridad a desgaste Resistencia a la Fatiga Superficial [Kpsi] Resistencia a la flexión [Kpsi] Energia Recuperada Energia Demandada 100% 80% 60% 40% 20% 0% 1 3 5 7 9 11 13 15 17 19 21 23 Tiempo de frenado [min] Pi = 61 [KW] 67 Figura 11. Tiempo de Frenado Vs Porcentaje de Energía Revista Politécnica - Marzo 2016, Vol. 37, No. 2 25 68 Méndez Cuello Andy1; Cely Vélez Mauricio1; Monar Monar Willan 1 _______________________________________________________________________________________________________________________________ 5. CONCLUSIONES Se concluye que si es posible diseñar el sistema de freno regenerativo para vehículos híbridos de acuerdo a las especificaciones planteadas inicialmente. Se han seleccionado los elementos que intervienen directamente sobre el sistema permitiendo describir cada proceso por separado. Al contar un vehículo con frenos regenerativos el aumento de la energía disponible se ve reflejada directamente en la autonomía del vehículo ya que logra un mayor kilometraje consumiendo la misma cantidad de energía. El principal desafío en el diseño del proyecto radica en el poder transmitir eficientemente la potencia otorgada por los equipos y la cantidad de energía disponible por los distintos elementos compuestos en el freno regenerativo, el análisis comparativo realizado entre varios modelos de equipos y elementos dan por determinado que la mejor opción es la conexión mediante engranes helicoidales. El conocer los esfuerzos a los que están solicitados los elementos del freno regenerativo permiten tener una idea mucho más clara de la factibilidad de cada uno, permitiendo de esta manera establecer geometrías, fuerzas y medidas diferentes para cada equipo. Las baterías utilizadas como fuente de almacenamiento de energía eléctrica están sometidas a altos niveles de exigencia y deben ser capaces de contener elevadas cargas con la menor masa posible siendo un objetivo primordial el reducir el peso del vehículo para aumentar la autonomía energética del mismo, además están expuestas a rangos de temperatura muy amplios, la posibilidad de accidentes e indeterminados ciclos de carga y descarga. Biblioteca Virtual. Biblioteca Luis Ángel Arango. Funcionamiento del motor de combustión Interna. Obtenido de: http://www.banrepcultural.org/node/92121. Bravo, Nicolás. (2008). Sistema de Conversión Mecánica Eléctrica para un generador undimotriz. Memoria para optar al título de ingeniero civil electricista. Facultad de Ciencias Básicas y Matemáticas. Santiago de Chile. Chile. Cengel, Yunus. Termodinámica. Sexta Edición. Editorial McGraw-Hill. México. 2009. Faires, V. Diseño de Elementos de Máquinas. Cuarta Edición. Editorial Montaner y Simon S.A. Barcelona. El Rincón de la Tecnología. Motor de combustión. Obtenido de: http://tecnologia-escolapioslogrono.blogspot.com/2011/04/motor-decombustion.html. Kalpakjian, Serope. Manufactura, Ingeniería y Tecnología. Quinta Edición. Editorial Prentice Hall. México. 2009. Karl-Heinz Dietsche. Manual de la técnica del automóvil. Cuarta Edición. Editorial Bosch. Martínez Salvador. Electrónica de Potencia Componentes, Topologías y Equipos. Editorial Paraninfo. México. Motor eléctrico. Definiciones básicas de los motores eléctricos. Obtenido de: http://acer.forestales.upm.es/2013/02. Motores Térmicos. Motor de combustión Interna Alternativo. Introducción, Elementos Constructivos, Clasificación. Universidad de Valladolid. Escuela de Ingenierías Industriales. Obtenido de: https://alojamientos.uva.es/guia_docente/uploads/2012/389/51445/1/Docume nto.pdf. Norton Robert. Diseño de Máquinas un Enfoque Integrado, Cuarta Edición. Editorial Prentice Hall. México. 2011. Página oficial de Toyota. Ecuador. Obtenido de: http://www.toyota.com/espanol/prius/#!/features. Riba Carles. Diseño Concurrente. Universidad Politécnica de Cataluña. 2002. Shigley Joseph. “Diseño en Ingeniería Mecánica”. Novena Edición. Editorial McGraw-Hill. Estados Unidos de Norte América. 2012. REFERENCIAS Aficionados a la mecánica. Configuración del vehículo híbrido. Obtenido de: http://www.aficionadosalamecanica.net/2013/11/. Arcos D. Ortiz A. (2012). Diseño de un sistema de tracción delantera en motocicletas complementando la tracción posterior. Proyecto previo a la obtención del título de Ingeniero Mecánico. E.P.N. Quito, Ecuador. Sotomayor, Gómez. Castillo (Enero 2014). Visual Control of an Autonomous Aerial Vehicle for Crop Inspection. Revista Politécnica. Volumen 33. Obtenido de: http://www.revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2 /article/view/107. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III _________________________________________________________________________________________________________________________ 69 Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2 1Escuela Politécnica Nacional, Facultad de Ingeniería Mecánica, Laboratorio de Análisis de Esfuerzos y Vibraciones Quito, Ecuador 2 Escuela Politécnica Nacional, Facultad de Ingeniería Mecánica, Quito, Ecuador Resumen: Se analizó el proceso de aplicación pintura esmalte en las estructuras automotrices con apariencia piel de naranja (i.e textura) de diferente longitud. Se realizó el despliegue de las matrices CTX (i.e características críticas del proceso) temperatura de horno, presión de aire, porcentaje de sólidos y CTY (i.e características críticas del producto) como piel de naranja. Se aplicó el diseño de experimentos factorial fase III de la metodología Lean Six Sigma, de interacción de las características críticas del proceso con las características críticas del producto. Se determinan los efectos significativos sobre las características críticas del proceso (porcentaje de sólidos 36,87%, temperatura del horno 132 °C y presión de aire 85 PSI) que disminuyen el efecto piel de naranja, aumentando el rating hasta un valor optimizado de 6,80. Con los valores optimizados se procede a calibrar el proceso de aplicación pintura esmalte en estructuras automotrices para obtener satisfacción del cliente. Palabras clave: Pintura esmalte, piel de naranja, lean six sigma, estructuras automotrices. Analysis of the process enamel paint in automotive structures with Lean Six Sigma-Phase III Abstract: The process of application was analyzed painting enamels in the car structure with appearance peel orange or dark shades of different length. There realized the deployment of the counterfoils CTX (i.e critical characteristics of the process) temperature of oven, air pressure, percentage of solid and CTY (i.e critical characteristics of the product) as peel orange. The experimental design was applied factorial of the phase III of the methodology Lean Six Sigma, of interaction of the critical characteristics of the process with the critical characteristics of the product. There decide the significant effects on the critical characteristics of the process (solid 36,87 %, temperature of the oven 132 °C and air pressure 85 PSI) that diminish the effect peel orange, increasing the rating with optimized value of 6,80. One proceeds to calibrate the process of application enamel paint in the automotive structures to obtain satisfaction of the client. Keywords: Painting enamels, peel orange, lean six sigma, automotive structures. 1 1. INTRODUCCION Las estructuras automotrices al ser sometidas a un proceso de aplicación de pintura esmalte presentan una textura de forma ondulada con asentamientos entre claros y oscuros que se conoce como piel de naranja (Ansdell, 1999). La pintura aparte de dar una buena apariencia a la carrocería cumple con el propósito de proteger de la radiación ultravioleta, lluvia ácida y de los efectos del agua y el clima (Bender, 2013). Los procesos de aplicación de pintura esmalte se lo realiza en cabina, las variables que intervienen son analizadas cualitativamente con modos de fallo y efecto (GMS, 2006). De acuerdo a la estructura de mejora continua una vez que se dispone del análisis cualitativo es necesario efectuar el análisis experimental para estandarizar el proceso (Reina, 2014). La fase III de la metodología Lean Six Sigma se [email protected]. caracteriza por realizar el análisis experimental factorial de las variables, partiendo del análisis de modos de fallo y efecto. La casa de la calidad es utilizada para el despliegue de las matrices desde las características que involucran al cliente hasta el producto final. Con Lean Six Sigma se parte de una evaluación previa de las características críticas del proceso que impactan significativamente en el producto, que es el caso de la medición del acabado superficial de la estructura automotriz al ser sometido a una aplicación de pintura esmalte (Montgomery, 2005). El proceso para determinar si un vehículo tiene manchas oscuras cortas o largas (i.e piel de naranja) que refleja la textura del acabado es una inspección visual (GCA, 2006). El Wave-scan Plus es un medidor de la textura de las superficies pintadas que indican la longitud de onda de las manchas que se presentan. El “rating” es un valor de rango de ondulaciones de onda que indica la medida del efecto piel de naranja en las estructuras automotrices que han sido sometidas a un proceso de aplicación de pintura. Las mediciones del perfil óptico luminoso de las superficies Revista Politécnica - Marzo 2016, Vol. 37, No. 2 70 Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2 _______________________________________________________________________________________________________________________________ pintadas dan lugar a ondulaciones de longitud de corta o larga onda. En lo referente al proceso de pintura las plantas automotrices siguen utilizando el modo de fallos y efectos cuyos análisis se encuentran desplegados en los puestos de trabajo. Inicio Det erminar el proceso de aplicación pintura esmalte 1era. La metodología Lean Six Sigma en la fase analizar se enfoca en el diseño experimental para efectuar el análisis cuantitativo de las características críticas del proceso que influyen significativamente en el producto (Salvendy, 2001). Aplicación de barniz 2da. Medir con Wive- scan P LUS el valor de rat ing Encontrar las CT X que afectan a la CT Y o piel de naranja 2. MATERIAL Y MÉTODOS Aplicar Lean Six Sigma Fase III 2.1Materiales y Equipos 2.1.1 Estructura automotriz y Medidor Wave-scan PLUS Se utilizó una estructura automotriz de acero aleado tipo SAE que ha sido sometida a un proceso de aplicación con pintura esmalte del proveedor DUPONT. Una vez terminada la aplicación de pintura la estructura automotriz se encuentra en el patio de terminados esperando la auditoria GCA, que es el análisis de unidades desde el punto de vista de percepción del efecto piel de naranja del cliente antes de liberar las unidades de fábrica. De acuerdo al sistema global de manufactura se escogen cinco unidades, entre los parámetros a medir está la piel de naranja en unidades de “rating” (GCA, 2006). Para medir las diferentes longitudes de onda se utiliza el medidor Wave-scan PLUS que fue desarrollado entre otros por Toyota. Es un medidor de piel de naranja que se coloca sobre las estructuras automotrices después de que han sido pintadas en las cabinas. Es aplicable en rangos de (0,1 – 12) mm de longitud de onda el cual es un parámetro fundamental en las superficies con piel de naranja. En ondulación corta (0,1 <ʎ≤ 0,6) mm se percibe un efecto visual muy brilloso desde una distancia mayor a 50 cm respecto a la superficie pintada. La ondulación larga (0,6 <ʎ≤ 10) mm, es el parámetro más importante para determinar piel de naranja (GMS, 2006). Diseño experimental 3 factores con dos niveles Análisis de variabilidad de int eracción de las CT X que afect an a la CT Y Fin Figura 1. Estrategia para aplicación de la fase analizar de Lean Six Sigma. 2.2.1 Proceso de aplicación pintura esmalte Para el análisis del proceso se desplegó las actividades fundamentales que se realizan en el interior de la cabina de aplicación de pintura. Se encuentran desplegadas las hojas de trabajo estandarizado que se realizan sobre la estructura automotriz. En la Figura 2, se muestra el proceso de aplicación de pintura esmalte con su respectivo trabajo estandarizado. Inicio Preparación de estructuras automotrices Aplicación de barniz 1era. 2.2 Métodos El análisis del proceso de pintura esmalte se lo realizó con la metodología Lean Six Sigma en lo que respecta a la fase III. Entre las herramientas para la fase analizar se utilizó diseño de experimentos para las características críticas del proceso (CTX) que afectan a la (CTY) o piel de naranja (Salvendy, 2001). Aplicación de color 1era. mano Aplicación de barniz 2da. mano Aplicación de color 2da. mano Secado rápido Presecado En la Figura 1, se indica la metodología para aplicar la fase III de Lean Six Sigma en el análisis de la textura de los automóviles. Horneo Fin Figura 2. Proceso de aplicación pintura esmalte. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 71 Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III _________________________________________________________________________________________________________________________ Para determinar del efecto piel de naranja se debe colocar el lente del medidor sobre el punto de medición (puertas, capot o techo). Para efectuar la operación se debe mantener presionado el botón operate y mover el medidor hacia delante rodándolo sobre sus ruedas, como se indica en la Figura 3. Se toman tres lecturas de rating en cualquier punto de la superficie, en superficies de considerable dimensión deberán tomarse las mediciones de rating aleatoriamente. La distancia entre los puntos de medición debe ser de aproximadamente 50 cm. Se debe registrar el promedio de las mediciones (GCA, 2006). Figura 3.Medición (rating) en superficies pintadas automotrices. 2.2.2 Características críticas del proceso que afectan a la textura Las características críticas del proceso son las que definen las condiciones de la cabina de pintura esmalte que deben ser reguladas de acuerdo al tipo de aplicación sobre la superficie automotriz. Para la aplicación de pintura de cabina se determinó que la presión de aplicación, la temperatura del horno y el porcentaje de sólidos de la pintura afectan considerablemente al acabado de la superficie. En la Tabla 1, se indica las variables de cabina que intervienen en el proceso de aplicación de pintura de las estructuras que pasan por la cadena transportadora. Se presentan en la matriz de priorización de características críticas del proceso y que inciden significativamente en la textura superficial de las estructuras que son: % sólidos, presión de aire y temperatura del horno. La matriz de priorización se obtiene efectuando la calificación: 1: Baja incidencia significativa, 3: Mediana incidencia significativa, 9: Alta incidencia significativa, (Taguchi, 2005). Al aplicar Lean Six Sigma fase III, se efectúa una aproximación de las características críticas del proceso partiendo de las condiciones en las que opera la cabina de pintura. El análisis multivariable que corresponde a la fase III del diseño experimental se lo realiza con los siguientes factores: porcentaje de sólidos (18-36) %, presión de pistola de aire (70-80) PSI y temperatura de horno (156-160) °C correspondiente a un valor de piel de naranja de 6,45 rating. Tabla 1.Matriz de priorización características críticas del proceso CTY seleccionadas Prior. CTY 1 2 3 Flujo de fluido Temperatura de Presecado Temperatura Flash Off (entrada) Sólidos (%) Humedad C Relativa T Presión de Y aire Presión pintura Temperatura Cabina Base Viscosidad Color Temperatura del Horno Espesor Aparie ncia piel de naranj a Prior . CTX 1 3 9 34 40 - 50 °C 3 3 3 18 30 - 45 °C 1 1 3 12 18 - 36% 3 3 9 36 45 - 75% 3 3 3 18 75 - 85 PSI 3 3 9 36 35 - 45 PSI 1 3 9 34 20 - 26% 9 3 3 24 3 9 3 30 9 9 9 54 Especificaci ones Brillo 440- 480 ml/min 22 - 27 seg a 25 °C 135 °C en 10 min Para la planificación de la corrida experimental características críticas del proceso se las considera como factores con dos niveles. El diseño experimental indica valores de piel de naranja en rating a medida que varían factores interrelacionados con los niveles. las los los los Se utilizó el software Minitab 16 con el módulo diseño de experimentos y Taguchi. Los valores de rating para obtener una textura de piel de naranja a satisfacción del cliente es de 5,5 a 7 (GCA, 2006). Para el análisis de variabilidad en las estructuras automotrices se planteó lo siguiente: 𝐻0 = La presencia de piel de naranja no tiene efectos significativos con relación al % de sólidos, presión de aire y temperatura del horno. 𝐻1 = La presencia de piel de naranja tiene efectos significativos con relación al % de sólidos, presión de aire y temperatura del horno. 3. RESULTADOS Y DISCUSIÓN En las plantas ensambladoras automotrices el acabado superficial en lo que respecta a la textura representa la carta de presentación de la marca desde el punto de vista visual. Durante el proceso de aplicación en cabina se originan superficies en la estructura automotriz de (0,1 a 10) mm como se indica en la Figura 4, se reflejan manchas oscuras y claras dicho estado se conoce como efecto piel de naranja. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 72 Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2 _______________________________________________________________________________________________________________________________ aumento del valor de “rating” con tendencia a 7,0. La corrida experimental permite visualizar los valores para la calibración del proceso de pintura esmalte de las estructuras a medida que van trasladándose por la línea de producción. Por lo general las plantas automotrices de ensamble en el proceso pintura esmalte efectúan las calibraciones de manera cualitativa con el análisis de modo de fallo y efecto. Al aplicar la fase III de Lean Six Sigma se obtienen no solo los niveles de calibración de cada uno de los factores, sino los valores de los niveles óptimos de calibración. A medida que aumenta el valor de rating se obtiene la mejor condición de disminución del efecto de piel de naranja. Figura 4.Superficie de estructura automotriz (0,1-10) mm. La característica crítica piel de naranja para que no impacte visualmente al cliente debe encontrarse en un intervalo de 5,5<rating≤7,0 con la tendencia de obtener valores óptimos cercanos a un rating de 7,0. El “rating” depende de las características del proceso de pintura en lo que respecta a temperatura del horno, presión de aplicación de aire y porcentaje de sólidos como se indica en la Tabla 1. Las condiciones del proceso en cabina de aplicación antes de la fase III de la metodología Six Sigma son: porcentaje de sólidos (18%-36%), temperatura del horno (156°C-160°C) y presión de aire (70PSI-80PSI). Tabla 2.Medición de piel de naranja: Arriba diseño Experimental I y abajo diseño Experimental II Diseño Temperatura del horno (°C) Experimental I 135 140 Presión de aire (PSI) 75 3.1 Resultado del diseño experimental para piel de naranja Con las características críticas del proceso de la cabina de pintura se plantea un diseño experimental factorial 2𝐾 con tres factores. En la Figura 5, con mediciones de piel de naranja a condiciones antes de la fase III el análisis multivariable indica la tendencia de “rating” hacia un valor de 7,0 a medida que va moviéndose los puntos de temperatura hacia la parte superior en lo referente a porcentaje de sólidos y presión de aire. La tendencia indica que el valor de “rating” va aumentando en la dirección creciente superior de la Figura 5. Análisis Multi-Vari (Piel de Naranja) PIEL DE NARANJA (6.5-7 raiting) 18 70 6.5 6.4 Diseño Experimental II Presión de aire (PSI) TEMPERATURA DEL HORNO (156- 160 156 160 6.3 6.2 6.1 36 18 36 6,43 6,81 6,18 6,32 6,44 6,82 6,19 6,30 6,38 6,73 6,25 6,25 6,41 6,69 6,22 6,27 6,37 6,83 6,21 6,32 6,52 6,70 6,21 6,43 6,51 6,71 6,17 6,42 6,49 6,79 6,21 6,40 6,51 6,68 6,19 6,39 6,48 6,77 6,14 6,41 Temperatura del horno (°C) 130 85 36 80 85 Sólidos (%) 18 90 6.0 5.9 135,36 Sólidos (%) 36 40 36 40 6,79 6,80 6,78 6,82 6,78 6,79 6,79 6,77 6,81 6,85 6,79 6,84 6,77 6,78 6,78 6,83 6,78 6,83 6,81 6,82 6,96 6,95 6,94 6,95 6,98 6,97 6,93 6,94 6,99 6,96 6,95 6,96 6,92 6,93 6,92 6,91 6,99 6,98 6,93 6,93 5.8 18 36 % SOLIDOS (18-36%) 3.2 Calibración de la cabina de aplicación pintura esmalte Panel variable: PRESION DE AIRE (70-80PSI) Figura 5.Análisis multivariable aproximación para diseño experimntal I. Para el diseño experimental I se redefinen los intervalos de las tendencias de las características críticas del proceso a los niveles: porcentaje de sólidos (18-36) %, temperatura del horno (135-140) °C, presión de aire en las pistolas (75-85) PSI, como se observa en la Tabla 2 arriba. Se evidencia en la corrida experimental con los intervalos de cada factor un En la Tabla 3 arriba, se obtienen del Minitab 16 los valores óptimos de factores que tienen efectos significativos sobre el efecto piel de naranja. Los resultados de la optimización en lo referente al rating máximo de piel de naranja que se puede obtener para las condiciones establecidas es de 6,73. Con los valores resultantes de optimización de cada factor, se procedió a realizar la corrida experimental II partiendo de los Revista Politécnica - Marzo 2016, Vol. 37, No. 2 73 Análisis del proceso de pintura esmalte en estructuras automotrices mediante Lean Six Sigma-Fase III _________________________________________________________________________________________________________________________ niveles: cantidad de sólidos (36-40) %, temperatura del horno (130-135,36) °C, presión de aire (85-90) PSI. En la Tabla 2 abajo, se observa las mediciones de piel de naranja correspondientes al Diseño factorial II con un valor máximo de 6,99 rating. Es evidente que la interacción de los factores con la combinación experimental de sus niveles factoriales determina el máximo rating de piel de naranja para el diseño II. Se procedió a optimizar los factores del diseño experimental factorial II aplicando software Minitab 16 para un valor de piel de naranja de 6,80 rating, como se indica en la Tabla 3 abajo. explica el 93,49% de la variabilidad del efecto piel de naranja en las estructuras automotrices. En la Fig. 6, se indica el análisis de variabilidad con los datos de rating que siguen una distribución normal. Los valores de los residuales indican valores mínimos con respecto al rango de valores aproximándose a 6,99 por la derecha. El rating obtenido es el máximo de acuerdo a las condiciones del diseño experimental. Los resultados de los residuales de rating tienen un comportamiento aleatorio de -0,50 a 0,50. Residual Plots for PIEL DE NARANJA (6.5-7 rating) 3.3 Resultado de análisis de variabilidad efecto piel de naranja Se realiza el análisis de variabilidad con los resultados de piel de naranja del diseño experimental factorial II. La probabilidad de la temperatura del horno y el porcentaje de sólidos es 0,244, efectos no significativos. El efecto de la presión de aire con probabilidad 0,000 es significativo. El efecto debido al porcentaje de sólidos con presión de aire es significativo con probabilidad de 0,028. La presión de aire 0,050 90 0,025 Residual Percent Residuals Versus the Fitted Values 99 50 10 1 -0,050 0,000 -0,025 -0,050 -0,025 0,000 Residual 0,025 0,050 6,80 Histogram of the Residuals 6,84 6,88 6,92 Fitted Value 6,96 Residuals Versus the Order of the Data 0,050 8 0,025 Residual Tabla 3.Optimización de los niveles factoriales: diseño experimental I arriba y diseño factorial II abajo. Diseño experimental I Temperatura % Sólido Optimal Presión Hi 140 36 D 85 Cur TEMPERAT [135,3598]% SOLIDO [36,9]PRESION[85,0] 0,53714Optim al Hi 140.0 36.0 85.0 D 135 18 [85.0] 75 CurLo [135.3598] [36.0] 0.53714 Lo 135.0 18.0 75.0 Piel de naranja MaximumPIEL DE um y= 6,7380yMaxim = 6.7380 d= 0,15867 d = 0.15867 Espesor ESPESOR Targ: 117,0 Targ: 117.0 y = 116.8008 y= 116,8008 d = 0.97670 d= 0,97670 BRILLO ( Brillo Targ: 95.0 Targ: 95,0 y = 95.0000 y= 95,0000 d = 1.0000 d= 1,0000 Diseño experimental II Temperatura % Sólido Optimal Presión Hi 135,36 40 D 90 Cur TEMPERAT [132,4389]% SOLIDO [36,8566] 0,06073 [85,0] PRESION Optimal Hi Lo 135.360 40.0 90.0 130 [36.8566] 35 85 D Cur [132.4389] [85.0] 0.06073 Lo 130.0 35.0 85.0 Piel de naranja Maximum PIEL DE Maximum y= 6,80042 y = 6.8042 d= 0,05247 d = 0.05247 Espesor ESPESOR Targ: 116,8010 Targ: 116.8010 y = 132.8646 y= 132,8646 d = 0.00436 d= 0,00436 BRILLO ( Brillo Targ: 95.0 Targ: 95,0 y = 95.0342 d = 0.97959 y= 95,0342 d= 0,97959 Normal Probability Plot of the Residuals Frequency Se tiene evidencia a partir del diseño factorial II los niveles a los que se calibra: cantidad de sólidos (35-40) %, temperatura del horno (130-135,36) °C y presión de aire (85-90) PSI se indica en la Tabla 3 abajo. 6 4 2 0 0,000 -0,025 -0,050 -0,04 -0,02 0,00 Residual 0,02 0,04 1 5 10 15 20 25 30 Observation Order 35 40 Figura 6.ANOVA piel de naranja. Distribución normal, residuales y puntos atípicos de rating. 3.4 Resultado de calibrar proceso de aplicación pintura esmalte El efecto piel de naranja en las estructuras automotrices a medida que se acerca a valores cercanos a 7 disminuye y se obtiene la apariencia requerida de satisfacción al cliente. Para el proceso de aplicación de pintura se recomiendan los factores óptimos de aplicación de pintura esmalte: cantidad de sólidos 36,86%, temperatura del horno 132,4 °C y presión de aire de 85 PSI que corresponde al nivel bajo, como se indica en la Tabla 3. Los resultados obtenidos de la optimización fueron a partir de dos corridas experimentales factoriales, partiendo del análisis multivariable que indica el punto de partida de las características críticas a calibrar. Las mediciones obtenidas de piel de naranja indican que la calibración se ha efectuado a las condiciones actuales del proceso de pintura esmalte. Aplicando la fase III de la metodología lean six sigma, las matrices indican las características críticas a optimizar con el programa minitab 16. 4. CONCLUSIONES Al aplicar la fase III de la metodología Lean Six Sigma directamente en los procesos de mejora continua, se logra tener información cuantitativa para acercarse a la zona de optimización. El análisis multivariable es la base para obtener evidencia de las aproximaciones, como fue el caso del análisis piel de naranja con el valor máximo de rating de 6,73 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 74 Reina Salvatore1; Ayabaca César2; Tipanluisa Luis2 _______________________________________________________________________________________________________________________________ del diseño experimental I, al valor de 6,99 rating del diseño experimental II, como se indica en la Tabla 2. La característica crítica del proceso de aplicación de pintura esmalte de mayor efecto significativo es la presión de aire de la pistola. Al aplicar diseño experimental se determinó que los valores óptimos: presión de aire para el proceso es de 85 PSI en interacción con los factores porcentaje de sólidos 36,86% y temperatura del horno 132,4 °C dan un “rating” esperado de 6,80. El conocer inicialmente los niveles factoriales basados en la experiencia y en la forma de ejecutar el proceso es fundamental para la calibración del proceso de pintura esmalte en los valores óptimos del porcentaje de sólidos, presión de aire y temperatura del horno, como se observa la matriz de la Tabla 1. Con la aplicación de la fase analizar de la metodología Lean Six Sigma al mejoramiento de las características críticas del proceso de pintura, se definirán las variables que tienen mayor efecto significativo y que serán el foco de mejora. Se estandarizaran y se efectuarán análisis de los efectos significativos que impactan a la característica crítica piel de naranja de las estructuras automotrices. AGRADECIMIENTO El presente estudio fue posible realizarlo gracias a GM-OBB Ecuador en lo referente al Sistema Global de Manufactura (GMS). A los editores por sus observaciones y recomendaciones para mejorar el presente trabajo. REFERENCIAS Ansdell, D. (1999). Paint and surface coatings. Metals and surface Engineering, 411-491. Bender, L. (2013). Automotive Paint. Encyclopedia of Forensic Sciences, 257-264. General Motors Manual GCA, Gestión de Auditoría del Cliente, 2007. Montgomery, D. (2005). Design and Analysis of Experiment, (6ta ed.). EEUU: Wiley. Sistema Global de Manufactura GMS. General Motors-OBB., EEUU, 2006. Reina, S. (2014). Estudio Experimental de la variación de la resistencia a la tracción del hilo de polipropileno. Colim. (1), 67-73. Salvendy, G. (2001). Handbook of Industrial Engineering, (3ra ed.). EEUU: Wiley. Taguchi, G., y Chowdhury, S. (2005). Taguchi’s Quality Engineering Handbook (2nd ed.). Livonia, Michigan., EEUU: Wiley. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 75 Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo _______________________________________________________________________________________________________________________________ Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1 1 Escuela Politécnica Nacional, Laboratorio de Nuevos Materiales, Departamento de Materiales, Quito, Ecuador Resumen: Los asientos de los vehículos requieren evaluación para garantizar su durabilidad y seguridad, mediante ensayos cíclicos para simular las condiciones durante su vida útil. Este artículo describe el diseño y construcción de un banco de pruebas de durabilidad para asientos de vehículo. Para el diseño se considera al bastidor como un pórtico y se hace un análisis de las cargas estáticas con el programa de simulación de elementos finitos ALGOR. De la misma forma se analizan los componentes de los sistemas de sujeción de muestras e indentación. Para el diseño del sistema de carga se seleccionan un cilindro neumático, actuador y compresor. Los conductos del sistema se dimensionan con el cálculo de pérdidas de presión y el consumo de aire. Para el control de sistema neumático se desarrolla un sistema electrónico comandado por un microcontrolador. Mediante el banco de pruebas se realizan ensayos de resistencia mecánica de la silla, durabilidad en el extremo delantero, espaldar y apoyacabezas, resistencia del pivote en el herraje y absorción de choques. El equipo aplica cargas de hasta 100 kgf, durante un máximo de 150000 ciclos con un tiempo de duración de cada ciclo de hasta 10 segundos. El banco de pruebas contribuye al control de calidad y normalización. Palabras clave: Diseño mecánico, banco de pruebas, asientos de vehículo, resistencia mecánica, durabilidad. Design and Construction of an Automotive Seat Durability Test Bench Abstract: Vehicle seats require evaluation in order to guarantee their durability and security, through cyclic tests that simulate usage conditions during its useful life. This paper describes the design and construction of a test bench to evaluate vehicle seats durability. For design purposes, the frame structure is considered as a portal and the static analysis is performed using the finite element simulation software ALGOR, in the same way of analysis for the sample fastening and indentation systems. For the loading system design a pneumatic cylinder, actuator and compressor are selected. The pipes are sized by calculating pressure drop and air consumption. For the pneumatic system control a microcontroller card is developed. The test bench can be used to perform tests like the mechanical strength of the chair, durability of the front end, backrest durability, fitting pivot strength, shock absorption and headrest durability tests. The equipment applies loads of up to 100 kgf for a maximum of 150 000 cycles with a duration of 10 seconds for each cycle. The test bench for vehicle seats contributes to comply with standardized requirements through quality control. Keywords: Mechanical design, test bench, automotive seats, mechanical strength, durability. 1 1. INTRODUCCIÓN El asiento es un componente de gran importancia en la industria automotriz ya que afecta la seguridad de los ocupantes de un vehículo. En el Ecuador las ventas acumuladas hasta el mes de diciembre del año 2014 ascienden a 120 015 unidades, las cuales debieron haber cumplido protocolos de ensayo que avalen a cada uno de sus componentes. (Aillon, 2011) [email protected] Argentina y Colombia son países que cuentan con una normativa de homologación para asientos de vehículo. Sin embargo, en países como Ecuador hace falta plantear un protocolo de ensayos para avalar asientos automotrices. (AEADE, 2013) La construcción de un banco de pruebas de durabilidad para asientos de vehículo podría contribuir a su homologación. Para esto, el equipo de ensayos se debe diseñar y construir bajo criterios de evaluación, basados en normas internacionales. La selección adecuada de estas normas permitiría implementar estos procesos en países como Ecuador. La normativa internacional tomada en cuenta para Revista Politécnica - Marzo 2016, Vol. 37, No. 2 76 Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1 _______________________________________________________________________________________________________________________________ la homologación de asientos automotrices incluye la norma colombiana NTC 3638 y el reglamento europeo ECE R17. Los fabricantes de asientos de vehículo están innovando diariamente y tratan de formular diseños y definir materiales y procesos que ayuden a cumplir con las exigencias del usuario. (IRAM-AITA, 1973-2014) Los asientos han ido mejorando tanto en su uso como en su fabricación para responder a las necesidades del usuario. La demanda de asientos en la época actual hace referencia a necesidades como son la seguridad, coeficientes de amortiguación altos, prestaciones elevadas y, por supuesto, la seguridad pasiva. (Corral et al., 2008) son tomadas en cuenta en este trabajo, debido a la falta de normativas para este tipo de elementos automotrices en países sudamericanos; siendo convenientes por la descripción del protocolo para homologar asientos de vehículo. En cuanto al reglamento ecuatoriano, no establece puntualmente una norma para homologar asientos y sus componentes. El Instituto Colombiano de Normas Técnicas y Certificación (ICONTEC) es el organismo nacional de normalización para Colombia. La normativa permite homologar asientos de vehículos en base a ensayos estáticos. Las pruebas se las debe realizar en un banco de pruebas, como se ilustra en la Figura 2. (ICONTEC NTC 3638, 1994) La estructura base del asiento se la fábrica típicamente en acero AISI 1018. Esto se debe a sus excelentes características mecánicas a cargas no muy severas, con un alto grado de tenacidad. (Aillon, 2011) El anclaje de los asientos se lo realiza mediante pernos hacia la carrocería del vehículo. El anclaje soporta toda la carga muerta (elementos propios) y la carga viva (peso del usuario) sin deformarse ni presentar fallas en su estructura. Los pernos de anclaje están constantemente sometidos a esfuerzos de tracción y de corte. (Corral et al., 2008) Figura 2. Ilustración de un banco de pruebas estático de asientos. 1.1 Requerimientos en un asiento de vehículo En el desarrollo de un asiento se respetan los principios de la biomecánica. (Li-Xin Guao et al., 2014) Un asiento debe ser anatómico y hallarse en una posición tal que garantice una buena visibilidad y una actitud fisiológica correcta, sobre todo para el conductor. En cuanto al reposacabezas, este debe ser regulable en altura. (Portilla et al., 2009) La Comisión Económica de las Naciones Unidas para Europa (UNECE) es el organismo de normalización para Europa. La normativa permite homologar asientos automotrices en base a ensayos estáticos y dinámicos, es decir que las pruebas se las realizan con maniquís o robots montados sobre el asiento de un vehículo o algún simulador avanzado, como se ilustra en la Figura 3. (UNECE ECE R17, 2002) Durante una frenada brusca o una colisión frontal o trasera, la cabeza se desplaza hacia delante y luego hacia atrás, o viceversa. Este hecho, que se ilustra en la Figura 1 y conocido como efecto látigo es responsable de la mayor parte de las lesiones cervicales que sufren los ocupantes de un vehículo. Los reposacabezas evitan dichas lesiones o, al menos, reducen su gravedad. (Li- Xin Guao et al., 2011; (Kolich, 2014) Figura 3. Pruebas dinámicas de asientos. Figura 1. Efecto látigo en un accidente. En este trabajo solo se examinan los ensayos estáticos, debido a que los ensayos dinámicos requieren maquinaria más compleja y costosa para su ejecución. (Johnson, 2013) 1.2 Homologación de asientos automotrices 1.3 Ensayos a realizarse Para homologar asientos automotrices, se debe establecer patrones de referencia. Estas referencias se encuentran definidas mediante normas legales que estandarizan y obligan a los fabricantes de asientos automotrices a cumplir con dichos requerimientos. Las directrices colombiana y europea El ciclo de operación para el banco de pruebas de asientos de vehículo consta de diferentes ensayos que se aplican a los elementos del asiento que son la silla, espaldar y apoyacabezas. Los ensayos a realizarse se definen de acuerdo con la normativa colombiana NTC 3638. Para que un asiento sea certificado como idóneo para el uso en vehículos Revista Politécnica - Marzo 2016, Vol. 37, No. 2 77 Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo _______________________________________________________________________________________________________________________________ automotores, debe cumplir las pruebas y criterios de evaluación descritos a continuación. (ICONTEC NTC 3638, 1994) Para el ensayo de resistencia de la silla se aplica una carga P perpendicular al espaldar del asiento, siendo ubicada puntualmente en la mitad de la parte superior de la estructura del espaldar. Esta carga se la aplica para generar un momento de 42 kgf.m alrededor de la articulación de la silla. Para efectuar esta prueba se necesita un indentador el cual es un plato indeformable de acero, de 100 mm de diámetro. Una vez realizado el ensayo no deberá haber deformación, roturas o partes sueltas en el herraje de la silla. En la Figura 4 se ilustra el ensayo a realizar. En el ensayo de durabilidad en el extremo delantero se aplica una carga simultánea P de 30 kgf en dos puntos equidistantes del eje de simetría, marcados en el extremo delantero del asiento, durante 140 000 ciclos de carga y descarga. Para aplicar la carga P se necesitan dos platos indeformables de diámetro 100 mm, con una simétrica de 120 mm. Una vez realizado el ensayo no deberá presentarse deformación del herraje ni saltarse los resortes de la silla. daños tanto en el apoyacabezas como en el espaldar y correderas. Para el ensayo de durabilidad del apoyacabezas se aplica una carga de 50 kgf perpendicular al apoyacabezas durante 10 000 ciclos. Este indentador de semiesfera es fabricado en madera sin alabeos. Una vez realizado el ensayo no debe haber roturas en partes soldadas, tanto en el apoyacabezas como en el espaldar. 2. METODOLOGÍA Y DISEÑO Se realiza un diseño conceptual y funcional del banco de pruebas para asientos de vehículos. Del requerimiento que debe cumplir el equipo se desprenden las especificaciones, sistemas y alternativas que pueden funcionar tomando como referencia mecanismos y estructuras de equipos similares existentes para este tipo de aplicaciones. Se elige la alternativa adecuada ponderando los criterios de diseño como funcionalidad, movilización, costo. Finalmente se diseña en detalle la mejor alternativa que se construirá como prototipo y se evaluará mediante pruebas de funcionamiento. En la Figura 5 se representa la metodología de diseño empleada para el banco de pruebas de asientos para vehículos. En la ejecución del ensayo de durabilidad del espaldar se aplica una carga cíclica perpendicular al espaldar del asiento. La carga aplicada debe generar un momento de 10 kgf.m en 28 000 ciclos. Para aplicar la carga P al espaldar se necesitan un indentador de madera que no tenga alabeos. Una vez realizado el ensayo no deberá haber rotura en los resortes, separación de las soldaduras o deformación. Figura 4. Ensayo para la resistencia de la silla. Para el ensayo de resistencia del pivote en el herraje se aplica una carga de 80 kgf durante 150 000 ciclos sobre el centro pivote del asiento. El indentador para esta prueba es el plato indeformable de acero que transmitirá la carga puntual P hacia el espaldar. Una vez realizado el ensayo no deberán presentarse grietas, roturas o separación en la región soldada, luego de ensayar el herraje. El ensayo de absorción de choques del apoyacabezas se realiza aplicando una carga perpendicular P al espaldar para generar un momento de 38 kgf.m alrededor de la articulación; esta parte del ensayo se la realiza con el indentador para el espaldar. Enseguida, se aplica una carga P1 de 100 kgf sobre el apoyacabezas. Para realizar la segunda parte de la prueba se necesita un indentador en forma de semiesfera fabricado de madera. Una vez realizado el ensayo no deben presentarse Figura 5. Metodología de diseño del equipo. En este trabajo se ha planteado que se requiere un dispositivo de pruebas de durabilidad para asientos delanteros de vehículos, capaz de adaptarse y trabajar en base a las normativas NTC 3638 y ECE R17. Para diseñar y construir el banco de pruebas se necesita definir las especificaciones y restricciones de funcionamiento del equipo que son establecidas por las normas del requerimiento. Las principales especificaciones son: - El bastidor debe ser de tamaño reducido que pueda caber en cualquier laboratorio y facilitar su traslado. - El sistema debe generar cargas que varían desde 1 kgf hasta 100 kgf, en intervalos de 1 kgf. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 78 Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1 _______________________________________________________________________________________________________________________________ - El sistema debe permitir variar la frecuencia de desde 1 ciclo hasta 150 000 ciclos en intervalos de 1. - El sistema debe permitir variar el tiempo de trabajo desde 1 hasta 8 segundos, en intervalos de 1. - El banco de pruebas para asientos de vehículos tiene como restricción principal el limitar la aplicación de carga máxima hasta los 100 kgf. 2.1 Sistemas del equipo Los sistemas del equipo son diseñados teniendo como referencia a máquinas con fines parecidos y promoviendo su correcto funcionamiento durante los ensayos. Para el sistema de bastidor se toma en cuenta que el equipo debe alojar las diferentes muestras a ensayar, así como también debe contar con un sistema que fije las mismas. Además, dentro de este sistema deben estar montados todos los elementos de carga y de control del equipo. Figura 6. Primera alternativa de diseño del equipo La segunda alternativa de diseño del banco de pruebas para asientos de vehículo se ilustra mediante la Figura 7. Se propone un modelo que fija permanentemente la platina de anclaje del asiento. Para el caso del sistema de carga, el sistema debe permitir trabajar con diferentes cargas cíclicas repetitivas, que en unos casos son de relativamente alta frecuencia, las cuales llegan hasta 1 ciclo por segundo durante 150 000 repeticiones. Por esto, el sistema de carga seleccionado es neumático. El sistema de control debe permitir programar diferentes parámetros de trabajo como son la carga, el tiempo y el número de ciclos de un ensayo. Por este motivo se determina que el sistema adecuado de control es electrónico comandado por un PIC (controlador programable de interrupciones). 2.2 Alternativas del equipo En las alternativas del conjunto, se diseñan varias opciones del equipo, considerando especialmente sus especificaciones. Las alternativas planteadas resultan del análisis de funcionalidad que tendrá el equipo y su posibilidad de construcción. Para seleccionar la alternativa ideal se evalúan ventajas y desventajas priorizando la ocupación en menor espacio, materiales y seguridad en su operación. La primera alternativa de diseño del banco de pruebas para asientos de vehículo, ilustrada mediante la Figura 6, propone un modelo que fija permanentemente todo el equipo a una base de concreto por medio de pernos anclados. La platina de alojamiento del asiento será estática, con múltiples perforaciones que permiten sujetar y anclar varios tipos de asiento. Para facilitar la variación de altura el sistema de carga, se incorpora un mecanismo de manivela, poleas y cable tensionado. La principal desventaja es que el equipo tiene gran peso y es difícil trasladarlo; mientras que su principal ventaja es la posibilidad de desplazar longitudinalmente al asiento. Figura 7. Segunda alternativa de diseño del equipo. El cilindro neumático está montado sobre dos travesaños rectangulares, que a su vez tiene distintos niveles de altura. La base del equipo tiene niveladores. La principal desventaja de esta alternativa es que el equipo tiene limitaciones al momento de realizar las pruebas, debido a que el cilindro neumático está fijado en una sola posición; mientras que su principal ventaja es la necesidad de poco espacio disponible. En la Figura 8 se ilustra la tercera alternativa y diseño final del banco de pruebas para asientos de vehículos. La selección de la alternativa final del conjunto y de componentes para el equipo se la realizó en base a los requerimientos y especificaciones planteadas en un inicio. El prototipo del banco de pruebas propone un modelo que fija permanentemente la plancha de alojamiento, donde se ancla el asiento. En la plancha de alojamiento del asiento, a su vez existen agujeros en los que se anclará el asiento independientemente de su tamaño y forma. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 79 Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo _______________________________________________________________________________________________________________________________ Los elementos que constituyen la estructura del bastidor se diseñaron mediante un análisis estático y dinámico de las cargas que actúan sobre éstos. En la Figura 10 se puede apreciar la denominación dada a cada elemento para su posterior análisis y diseño. Figura 8. Alternativa de diseño seleccionada. El cilindro neumático está montado sobre dos vigas transversales, y tiene la facilidad de desplazarse tanto vertical como horizontalmente. Además se tiene la posibilidad de girar un ángulo de 90° para adaptarse a pruebas hacia el espaldar y apoyacabeza. Los soportes del equipo tienen niveladores en sus bases que se adaptan fácilmente a las irregularidades del piso y brindan estabilidad al equipo. La desventaja radica en la dificultad para el usuario al realizar algunas pruebas debido a que el cilindro neumático no se desplaza longitudinalmente; mientras que su principal ventaja es la facilidad para variar altura de cilindro neumático. Ponderando las ventajas y desventajas de las alternativas se puede concluir que el tercer diseño representa la mejor opción para el diseño del banco de pruebas. 2.3 Diseño en detalle del banco de pruebas En el diseño detallado de la alternativa seleccionada se toman en cuenta los principios de diseño difundidos en la bibliografía de mecánica de materiales, mecánica de fluidos y control automático. Para el diseño de la estructura del bastidor se toman en cuenta las magnitudes de un sistema de cargas muertas debido al peso de los elementos ensamblados y a la carga viva debida a la fuerza de martilleo constante. Para el diseño de la estructura del bastidor se utiliza el programa de simulación de elementos finitos ALGOR. En la Figura 9 se muestra el resultado del análisis de la estructura del equipo. Figura 10. Elementos constitutivos del sistema bastidor Como ejemplo de cálculo se muestra el diseño de la viga A que soporta al cilindro neumático. Para esta viga se eligió como material al tubo estructural cuadrado ASTM A36, con arista de 50 mm, espesor de 3 mm en su pared y largo de 0,90 m; su resistencia a la fluencia es de σ = 250 MPa. En la Figura 11 se ilustra la viga a diseñar con color anaranjado. La masa del cilindro neumático (color gris) y el grupo indentador (color café) es Mc = 2 kg y Mi = 2 kg respectivamente, como también la masa del soporte del cilindro Mp = 5 kg (color verde). Además, existe la reacción debida a la fuerza de martilleo máxima de Fm = 981 N (100 kgf), dando como resultado una fuerza total de WT = 1070 N. Figura 11. Viga A que soporta al cilindro neumático. El primer paso del diseño es realizar el diagrama de cuerpo libre del elemento como se muestra en la Figura 12, Posteriormente se plantean las ecuaciones de equilibrio. Figura 12. Diagrama de cuerpo libre de la viga A. Para obtener el peso W de cada elemento se toma en cuenta la Ecuación (1). (1) Figura 9. Resultado del análisis de la estructura. La fuerza que actúa en la viga viene dada por la Ecuación (2). Revista Politécnica - Marzo 2016, Vol. 37, No. 2 80 Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1 _______________________________________________________________________________________________________________________________ (2) de la viga de 0,38 mm; por lo que todos los parámetros se encuentran dados para un óptimo funcionamiento y confiabilidad del equipo. Utilizando la sumatoria de fuerzas y realizando el cálculo respectivo se obtiene: Fy = 0 Para el sistema de carga, se considera la alternativa de trabajar con un sistema neumático, debido a que se trabaja con cargas cíclicas de alta frecuencia. En la Figura 13 se tiene el diagrama unifilar de funcionamiento del sistema neumático para el banco de pruebas de asientos que es realizado en el programa de simulación neumática FESTO FLUIDSIM. Para calcular el esfuerzo y deflexión en el tubo estructural cuadrado, se procede a calcular el área con la Ecuación (3). (3) El cálculo del área de la sección tubular de la viga que soporta al cilindro neumático da como resultado A = 5,6 · 104 m2. Con esto se obtiene el esfuerzo máximo que alcanza la viga mediante la Ecuación (4) (4) El esfuerzo máximo que alcanza la viga en su mayor exigencia que es σ = 1,91MPa. Para calcular la resistencia a la fluencia, se emplea la Ecuación (5). Figura 13. Esquema de funcionamiento del sistema neumático. Se puede seleccionar el cilindro neumático, si se conoce su diámetro y la presión de trabajo. Para el caso del banco de pruebas de asientos, la presión de trabajo es de 4 bares y debe entregar una fuerza de 100 kgf (981 N). Como se conocen la presión de trabajo PT = 40 N/cm2 y la fuerza de martilleo Fm = 981 N, se calcula el área del émbolo con la Ecuación (8) mostrada a continuación. (8) (5) Donde: n = 2 Factor de diseño Conocida el área del émbolo AE, se calcula el diámetro del émbolo con la Ecuación (9) Se obtiene una resistencia a la fluencia Sy = 3,82MPa, con lo cual se concluye que el valor está dentro del rango de tolerancia del material. Para obtener la inercia de la viga, se utiliza la Ecuación (6). (6) (9) Una vez obtenido el diámetro del émbolo, se puede obtener el diámetro del vástago utilizando un actuador con relación de áreas = 1,2 mediante la Ecuación (10) (10) La inercia de la viga que es I = 2,08·10-7 m4. Con el valor de la inercia, la fuerza máxima que se aplica F= 1070 N, la longitud de la viga L = 0,90 m, y el módulo de elasticidad del material E=207 GPa, se obtiene la deflexión máxima de la viga dada por la Ecuación (7). (7) Dados los resultados, con el diámetro de émbolo DE = 60 mm y la fuerza de martilleo FM = 981 N, se puede seleccionar el cilindro neumático adecuado. En la Figura 14 se puede seleccionar el cilindro neumático adecuado. Para el funcionamiento del banco de pruebas se necesita un cilindro neumático de doble efecto que tenga diámetro de émbolo DE = 63 mm, diámetro de vástago DV = 20 mm y que trabaje con presiones superiores a 40 N/cm2. La deflexión máxima de la viga en su máxima carga que es Ymáx = 0,38 mm. En conclusión se tiene que la viga principal A, con una carga máxima aplicada de 1070 N, llega a un esfuerzo máximo de 1,91 MPa, dando una deflexión máxima Revista Politécnica - Marzo 2016, Vol. 37, No. 2 81 Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo _______________________________________________________________________________________________________________________________ Caudal corregido: Se tiene el número de Reynolds NR = 48817,1; debido a que NR ≥ 4000, se determina que el flujo es turbulento. Con el número de Reynolds y la línea de tuberías lisas se determina el factor de fricción mediante el diagrama de Moody. (SMC, 2014) Figura 14. Grafica de selección de diámetro del cilindro neumático (Portilla et al., 2009) El consumo de aire del actuador determina las dimensiones de las válvulas, velocidades de trabajo, cañerías y las dimensiones del propio compresor. Este consumo de aire se lo obtiene mediante la Ecuación (11). (11) Donde: Diferencia de áreas: AR = AE - AV Longitud de carrera: 15 cm (5,90 in) Número de ciclos por minuto: N = 60 ciclos/min Número de cilindros iguales: Z = 1 Presión atmosférica: P0 =10,4 psi = 7,17 N/cm2 Presión de trabajo: Pabs = 40 N/cm2 Diámetro del émbolo: DE = 6,3 cm Diámetro del vástago: DV = 2 cm Mediante el diagrama de Moody se determinó el factor de fricción: f = 0,023. Este factor de fricción se lo reemplaza en la Ecuación (13) de Darcy mostrada a continuación para determinar la pérdida de carga (13) Donde: Longitud del ducto en el tramo (1-2): l1-2 = 0,8m Diámetro del ducto: D = 3/8 pulgadas = 9,525 x10-3 m Caudal corregido: Q = 327 l/min = 0,0055 m3/s Factor de fricción: f = 0,023 Pérdida de carga en el tramo 5-6: La pérdida de carga en el tramo 5 – 6, será el mismo que el tramo 1 – 2, de tal manera que la pérdida de carga en el tramo 5 -6 será: Corrigiendo el caudal al 10 % debido a fugas que siempre existen en el sistema se tiene Balance de energía en el tramo 1-2: Para el balance de energía en el tramo 1-2 del sistema, se utiliza la Ecuación (14) (14) Q=297,3 l/min *10 % Con el caudal corregido que se obtiene anteriormente Qcorr = 327 l/min, se trabaja durante todo el diseño del sistema neumático. Las pérdidas de carga son ocasionadas por fugas pequeñas de aire en algún punto del sistema, ya sea por falta de apriete o desgaste propio del sistema. A continuación se muestran las posibles pérdidas de carga que se darán en este sistema. Pérdida de carga en el tramo 1-2: Para determinar la pérdida de carga primero se debe calcular el número se Reynolds si el flujo es laminar o turbulento, mediante la Ecuación (12) mostrada a continuación. (12) Despreciando las velocidades por ser muy pequeña la ecuación anterior se reduce a la siguiente Ecuación (15), siendo el peso específico del aire es 11,81N/m3 (15) Balance de energía en el tramo 5-6: El balance de energía en el tramo 5 – 6, será el mismo que el tramo 1 – 2, de tal manera que el balance de energía en el tramo 5 -6 será Despejando la densidad se obtiene la presión en el punto 6 Donde: Número de Reynolds, NR Velocidad del fluido, υ Diámetro del ducto, D Revista Politécnica - Marzo 2016, Vol. 37, No. 2 82 Paredes Cristian1; Guarnizo Jorge1; Guerrero Víctor H.1; Campaña Orlando1 _______________________________________________________________________________________________________________________________ Como cálculo final, se selecciona el compresor mediante la obtención de la potencia requerida. La Ecuación (16) relaciona los dos sistemas de medición de presión: display LCD (pantalla de cristal líquido) permite una interfaz visual entre el operario y la máquina. 2.4 Materiales utilizados y costos de fabricación (16) Para la selección de los materiales, se toma en cuenta las dimensiones dadas por los resultados del diseño de cada elemento. En la Tabla 1 se muestran los materiales de construcción para el bastidor. Donde: Presión absoluta, Pabs Presión manométrica, Pgage =4,07kg /cm2 Presión atmosférica, P0 = 0,73 kg /cm2 Tabla 1: Material utilizado en el bastidor. Material Designación Tubo cuadrado La potencia media efectiva viene dada por la Ecuación (17). Perfil en L (17) Para el control de sistema neumático del banco de pruebas (control de presión, fuerza, número de ciclos) se desarrolla un sistema electrónico con tarjeta de control comandado por un microcontrolador 16F 876. A continuación se describe las partes principales del circuito. Para que las señales producidas por el sensor inductivo en el cilindro neumático puedan ser interpretadas por el circuito, se implementa un circuito electrónico con un PIC. Este circuito el encargado de dicha tarea, también serán necesarios diodos LED, diodos Zener un transistor y resistores eléctricos. La interfaz presión a corriente mide la presión que está circulando por el sensor y envía la señal en voltaje. Para interpretar las señales producidas por el sensor piezoeléctrico de presión se desarrolla un circuito que está compuesto por un PIC, un filtro pasa bajos, un cristal piezoeléctrico condensadores cerámicos y electrolíticos, y resistores eléctricos. Para indicar al PIC la velocidad a la que debe trabajar simplemente un circuito de oscilación para cumplir con esta tarea. Un microcontrolador PIC necesita de un circuito que le muestre la velocidad a la que debe trabajar. Dicho circuito se denomina oscilador de frecuencia. El teclado es un componente del sistema de control donde el usuario selecciona los parámetros por medio de botones para que la máquina pueda realizar el trabajo requerido. El AGA 6011 Los principales elementos neumáticos del sistema de carga se detallan en la Tabla 2. Tabla 2. Elementos utilizados en el sistema de carga. Elemento Detalle Cilindro neumático Para el funcionamiento del banco de pruebas se necesita un compresor superior a los 4 hp de potencia, el cual pueda abastecer un caudal Q = 300 l/min de aire. ASTM A36 Platinas Electrodos de suelda Donde: Coeficiente de expansión adiabático: ne = 1,4 Presión absoluta: Pabs= 4,8 kg/cm2 Potencia media del compresor: Pme Caudal corregido: Q = 327 l/min = 0,0055 m3/s 2,5 Plancha de acero Ø embolo: 63 mm Regulador de caudal Ø: 3/8 pulgada Electroválvula Posiciones: 5/2 Regulador de presión Presión: 0 a 60 psi Tubo de poliuretano Ø: 6,5 mm Conectores Ø: 1/8 pulgada Aliviador de presión Ø: ½ pulgada En la Tabla 3 se detalla los elementos electrónicos que se utilizan en el sistema de control. Tabla 3. Elementos utilizados en el sistema de control. Elemento Detalle Tarjeta de control Varios elementos Display Sensores Sensor de presión Tipo: reed Switch Presión: 0 a 150 psi El costo total de fabricación del banco de pruebas se compone de costos directos y costos indirectos de fabricación. Los costos directos incluyen materiales, elementos normalizados y el maquinado, y suman $ 1533. Los costos indirectos incluyen materiales, el diseño y otros gastos, y suman $ 693. El costo total de construcción del banco de pruebas de durabilidad para asientos de vehículos es de $2226. Este costo es competitivo con equipos de características parecidas desarrollados localmente. (Cruz, Amboya, 2011) 3. FUNCIONAMIENTO DEL BANCO DE PRUEBAS Para realizar un ensayo, se coloca el asiento individual de vehículo sobre la plancha metálica. En la Figura 15 se muestra la correcta adecuación de componentes en el banco de pruebas. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 83 Diseño y Construcción de un Banco de Pruebas de Durabilidad para Asientos de Vehículo _______________________________________________________________________________________________________________________________ Aillon J. (2011), Diseño de asientos para mejorar el rendimiento laboral de los conductores de vehículos pesados. Tesis de grado, PUCE, Ecuador . Asociación de Empresas Automotrices del Ecuador AEADE (2014). Cifras de ventas acumuladas de automotores desde diciembre 2013 a diciembre 2014. [en línea]. Ecuador. Obtenido en http://www.aeade.net/web/index.php?option=com_content&view=articar&id =145&Itemid=80). D. Cruz, Amboya F. (2011). Diseño y construcción de un equipo de ensayo para pruebas de deformación y resistencia de asientos y espaldares de poliuretano para autobuses. Tesis de grado, ESPOCH, Ecuador, ICONTEC NTC 3638. (1994), Herrajes para sillería automotriz, Bogotá, IRAM – AITA 1 – G1. Automotores, cabezales de seguridad para asientos. Vigente desde el año 1973 al 2014. Johnson controls automotive seating. (2013). World's largest testing network [Video]. Obtenido de: https://www.youtube.com/watch?v=HjFpNEFdTa0 Figura 15. Adecuación de componentes para un ensayo. Una vez ubicado el asiento, se lo fija mediante los pernos y platinas diseñados para este fin. A continuación se selecciona la posición adecuada de trabajo del sistema de carga, en el cual se coloca el molde indentador apropiado para cada prueba. Posteriormente se programa el trabajo que realizará el equipo en base a la necesidad del usuario y al ensayo a practicar. 4. CONCLUSIONES El banco de pruebas para asientos de vehículo construido permite comprobar la calidad de estos componentes al realizar ensayos de impacto cíclicos en asiento, espaldar y apoya cabeza, lo que permite determinar la durabilidad del componente. El colocar un aditamento de alivio de presión en el circuito neumático permitió proteger y facilitar el trabajo con las mangueras de presión. Li–Xin Guao, Hui Chena, Jin–li li. (2011) Endergonic property analysis of vehicle seat pillow under heads crash loads. Procedia Engineering.Vol. 15, pp. 3046-3050, M. Corral, A. López,R. Grimaldi, F. Aparicio. (2008) Nuevos requisitos y avances en seguridad pasiva en autobuses y autocares. Primer Congreso Iberoamericano de Seguridad Vial. M. Kolich. “Using failure mode and effects analysis to design a comfortable automotive driver seat”. Applied Ergonomics. Vol. 45, pp.1087-1096. 2014 M. Tada, S. Sekiguchi, T. Nisimatsu, E. Toba. (1998) Measurement and evaluation of sitting comfort of automotive seat . Instrumentation and Measurement Technology Conference. Serrano A. (2009), Neumática práctica, 1era. Edición. España. SMC.(2014) Procedimiento de selección del modelo de cilindro neumático, Obtenido de: https://es.scribd.com/doc/.../Seleccion-de cilindrosneumáticos-SMC. UNECE ECE R17 (2002), Disposiciones uniformes relativas a la homologación de vehículos respecto a los asientos, a sus anclajes y a los apoyacabezas; Geneva, 2002. El uso de un microcotrolador es una opción más económica para controlar el funcionamiento del sistema de carga ya que los PLC´s tienen usualmente mayores costos de adquisición y ocupan mayor espacio físico en sus adecuaciones. El sistema de carga neumático es mejor opción que uno hidráulico para esta aplicación ya que las presiones necesarias son relativamente bajas y la frecuencia de trabajo es alta. Además, es más económico su funcionamiento, mantenimiento y los componentes ocupan menor espacio ya que no se requiere de un circuito de retorno para el fluido. REFERENCIAS A. Ghosal, V. Kumar, S. Ansari. (2014) A brief review on advance manufacturing process of automobile seat production. International Journal of Scientific Engineering and Technology. Vol. 9, pp.170-171. A. Mokhtar, E. Abdullah, (2007) Vehicle seat design. Sustainable Automotive Technologies. A. Portilla, C. E. Guamán, S. D. Morales, A, Ribadeneira, A. Salas, S. Mena, (Julio, 2009). Uso de dispositivos postcombustión para reducir el material particulado en autobuses. Revista Politécnica. Vol.28, No, pp. 111-120. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios _________________________________________________________________________________________________________________________ 84 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3 1Pontificia Universidad Católica del Ecuador-sede Ibarra, Escuela de Ingeniería, Ibarra, Ecuador 2Univeridad de Los Andes, Escuela de Ingeniería de Sistemas, Mérida, Venezuela 3Secretaría de Educación Superior, Ciencia, Tecnología e Innovación, Programa Prometeo, Quito, Ecuador Resumen: En este trabajo se presenta el diseño de un sistema web para asignación de becas utilizando un bus de servicios de empresas, asegurando un sistema más escalable y mantenible, atributos de calidad necesarios. Para el diseño se sigue las especificaciones de las arquitecturas basadas en servicios, donde, los servicios desarrollados se registran en un bus de servicios a fin de asegurar un bajo acoplamiento y una mayor integración. Un bus de servicios de empresas es un software que actúa como intermediario, permitiendo la comunicación entre servicios de diferentes aplicaciones. En él se registran todos los servicios expuestos por las aplicaciones de un entorno empresarial, sin importar las plataformas utilizadas. El diseño de aplicaciones basada en un bus de servicios facilita la creación de nuevos servicios utilizando la composición de servicios existentes, intentando aislar el acoplamiento entre los servicios solicitados y el medio de transporte y permitiendo una alta integración de servicios distribuidos. Estas características facilitan la escalabilidad y el mantenimiento evolutivo y adaptativo de los sistemas. Este desarrollo permite definir e integrar un conjunto de servicios web que podrán ser reutilizados dentro de nuevas aplicaciones, apoyando el desarrollo de una arquitectura de información que apoye y se alinee con los procesos que se realizan dentro de la organización. Palabras clave: Diseño de sistemas, servicios web, bus de servicios, integración de sistemas, sistema de asignación de becas Web System for Awarding Scholarships Based on a Bus Service Abstract: This paper describes the design of a web system for grants allocation using a enterprise service bus is presented, ensuring a more scalable and maintainable system, which are quality attributes required. For the design it was followed the specifications of the service-based architectures, where developed services are recorded on a bus service in order to ensure low coupling and greater integration. A bus service is an enterprise software that acts as an intermediary, enabling communication between services of different applications. In it all services exposed by applications in an enterprise environment, regardless of the platforms used are recorded. Application design based on a service bus facilitates the creation of new services using the composition of existing services, trying to isolate the link between the services requested and the means of transport and allowing high integration of distributed services. These features facilitate the scalability and evolutive and adaptive maintenance of the systems. This development allows to define and integrate a set of web services that can be reused in new applications, supporting the development of an information architecture that is based and is aligned with the processes taking place within the organization. Keywords: System design, web services, bus services, systems integration, system for awarding scholarships. 1. INTRODUCCIÓN La globalización ha obligado a las organizaciones a ser más competitivas, dada la necesidad de posicionarse en ese mercado globalizado, este fenómeno ha hecho que las organizaciones necesiten revisar y actualizar sus estrategias y [email protected] procesos de negocio de forma continua; estrategias que se apoyan en el conjunto de datos e información que se gestionan en cada proceso. Esta es la razón por lo que toda organización pública o privada, está interesada en que su departamento de tecnologías de Información y comunicación (TIC) apoye sus procesos de toma de decisiones estratégicas, para ello necesitan conocer todos los flujos de datos e información que internamente se manejan, requerimiento que Revista Politécnica – Marzo 2016, Vol. 37, No. 2 85 Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3 _______________________________________________________________________________________________________________________________ en muchas ocasiones es difícil de satisfacer dado que la información solicitada forma parte de aplicaciones que pertenecen a diferentes departamentos, requiriendo procesos de búsqueda e integración de datos e información, lo que generalmente termina ocasionando pérdidas de tiempo o incremento en costos. Por ello, en la actualidad, las organizaciones requieren de aplicaciones corporativas, integradas y distribuidas, alineadas a sus procesos de negocio. Estos sistemas corporativos integrados se caracterizan por incrementar la complejidad de gestión, control y comunicación de sus aplicaciones, requiriendo herramientas tecnológicas que le permita lidiar con esta complejidad. En los últimos años, en el desarrollo de aplicaciones integradas se ha utilizado diferentes herramientas tecnológicas, tales como Arquitecturas Orientadas a Servicios (Service Oriented Architect SOA), servicios web, Integración de Aplicaciones empresariales (EAI), todas ellas apuntan a mejorar la integración de los procesos de negocios de la organización. Sin embargo, el Bus de Servicios de Empresa (BSE) extrae las mejores características de estas tecnologías (Chapell, 2004). Los BSE son un nuevo enfoque de integración que permite un bajo acoplamiento entre sus aplicaciones y una red de integración altamente distribuida. Es una plataforma de integración basada en estándares que combina mensajería, servicios web, transformación de datos y enrutamiento inteligente para conexiones confiables y coordina la interacción de un gran número de aplicaciones diferentes de una empresa extendida, constituida por la organización y los interesados en el negocio. La integración de servicios corporativos trata de resolver el problema que surge cuando los servicios web dentro de la organización se multiplican. Un aspecto importante para manejar esta complejidad es desarrollar estrategias que asilen los servicios y faciliten su integración, para ello es necesario (Ildapena, 2009): Identificar los mensajes y las rutas entre los servicios Permitir el flujo de mensajes a través de diferentes protocolos de transporte (HTTP, FTP, SMTP) Transformar los formatos de los mensajes entre el solicitante y el servicio Proporcionar robustez comunicaciones Proporcionar enrutamiento inteligente y ubicación independiente de la transformación y seguridad de las El BSE se considera la columna vertebral de una Arquitectura Orientada a Servicios (AOS). Las AOS, (conocida como SOA por sus siglas en ingles), proveen una arquitectura de integración con una visión abstracta de aplicaciones y componentes que permiten tratar con servicios de alto nivel. Es la arquitectura más utilizada ya que permite que una colección de sistemas distribuidos y aplicaciones complejas se puedan transformar en una red de recursos integrados y flexibles. La necesidad que tienen las organizaciones de contar con una arquitectura de información alineada a sus procesos de negocios que permitan incorporar de forma rápida modificaciones generadas por cambios en los objetivos estratégicos, ha obligado a los departamentos de TIC a adoptar a SOA como un estándar para el desarrollo de sus aplicaciones, ganando así un mayor grado de integración, proporcionando una inteligencia de negocio precisa y accesible con la cual se podrán adoptar mejores decisiones, ayudando a las organizaciones a optimizar sus procesos internos y flujos de información e incidiendo directamente en la mejora de la productividad (Corporation, 2010). Adicionalmente, los servicios web han otorgado mayor importancia a las arquitecturas AOS por ser un enfoque basado en estándares para la interoperabilidad, permitiendo la integración de aplicaciones que se encuentran en diferentes plataformas y ambientes. En este trabajo se presenta el desarrollo de una aplicación web para apoyar el proceso de asignación de becas en la PUCESI, Este proceso es responsable del estudio y de la asignación de becas a los estudiantes que soliciten el apoyo de la institución para realizar sus estudios. El sistema desarrollado servirá para proveer los datos e información necesaria a todas las actividades que se realizan en este proceso, el alinear las informaciones a sus procesos, permitirá descubrir relaciones nuevas e interesantes. Para su desarrollo, se utilizaron metodologías y tecnologías asociadas a las AOS, garantizando un buen diseño lo que permitirá la escalabilidad del sistema, asegurar integración con otras aplicaciones y reutilización de los servicios aquí desarrollados. Este sistema formará parte de la arquitectura de información requerida por la PUCESI para apoyar todos sus procesos de negocio. Los trabajos en el área de desarrollo de aplicaciones basadas en servicios es amplia, por citar algunos trabajos se tiene (Calvo, Gracia, Bayo, 2014) presentan la arquitectura de una aplicación web para el análisis y diseño de estructuras utilizando servicios web en el diseño de sus 4 componentes de su sistema, (Pernalete, López, Montaño, Miguel, 2007) presenta la arquitectura de un sistema de enseñanza utilizando un EBS para la integración de sus componentes, Huanzhuo, Shuai et al presentan un modelo conceptual basado en SOA y BSE para auditoria continuas (Huanzhuo, Shuai, Fang, Yuning, 2008). Por otro lado, (Echeverría, Astudillo, Estrada, 2008) han investigado en los modelos de calidad (ESB-QM) con el objetivo de proveer un lenguaje que haga posible tratar a los EBS como productos estándares. El documento está estructurado en secciones. En la sección 2 se describe las herramientas tecnológicas y fundamentos teóricos sobre las que descansa este trabajo. La sección 3 presenta el análisis del negocio, requisitos y diseño del sistema. Finalmente, en la sección 4 se presenta las conclusiones y trabajo futuro. Revista Politécnica- Marzo 2016, Vol. 36, No. 2 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios _________________________________________________________________________________________________________________________ metadata. Está basado en estándares tales como XML, esquemas XML, http (Saffirio, 2006). 2. HERRAMIENTAS TECNOLÓGICAS Y MARCO TEÓRICO 2.1 Arquitectura Orientada a Servicios En la actualidad, el desarrollo de sistemas de información, específicamente, sistemas WEB se diseña usando una Arquitectura Orientada a Servicios (AOS). Una AOS es un estilo arquitectónico de TI que soporta la transformación de una empresa en un conjunto de servicios vinculados o tareas empresariales repetibles a las cuales se puede acceder en una red cuando sea necesario. AOS es un paradigma de arquitectura para sistemas de información basados en servicios (SSII de sus siglas en ingles) que busca el mínimo acoplamiento entre sus componentes y que promueve su reutilización, favoreciendo la identificación de un conjunto de servicios en red y la definición de los procesos por los cuales interactúan. SSII provee la información a las organizaciones que le permite saber qué está sucediendo en los negocios, lo que les ayudará a mejorar los modelos empresariales ya existentes. Al usar AOS se puede transformar sus procesos empresariales en servicios reutilizables y flexibles lo que facilitará la mejora y optimización de los procesos o la inclusión de nuevos proceso (IBM 2011). Cuando se desarrolla una AOS guiada por objetivos empresariales estratégicos, se aseguran los beneficios principales del uso de las TIC en las organizaciones: Alineación de la TI a los negocios Reutilización máxima de los activos de T 86 AOS propone el uso de metodologías ágiles (Scrum, XP, entre otros) por adaptarse mejor a entornos donde los requerimientos de negocio son desconocidos o cambiantes, el mismo funcionamiento del negocio introduce cambios en el modelo de servicios que requiere una respuesta rápida por parte del departamento de TI. 2.2 Servicios Web Un servicio web (WS de sus siglas en inglés) es un servicio ofrecido por una aplicación que expone su lógica a clientes de cualquier plataforma mediante una interfaz accesible a través de la red utilizando protocolos de internet. Es un caso particular de mecanismo estándar para implementar la interacción entre los componentes de software, mediante la invocación de métodos remotos. Los servicios web bajo AOS son la unidad básica de funcionalidad en la arquitectura y se definen como un conjunto coherente de funcionalidad, auto-contenido, sin estado e independiente. Un servicio web específica una interfaz de software que describe un conjunto de operaciones a las cuales se puede acceder por la red a través de mensajería XML, usa protocolos basados en XML para describir una operación a ejecutar o intercambiar datos con otro servicio web. Un grupo de servicios web que interactúa de esta forma define la aplicación de un servicio web específico en una arquitectura orientada a servicios (SOA) (IBM, 2011). La Figura 1 describe los pasos a seguir para la creación, registro, búsqueda y utilización de un servicio Web. El negocio dirige los servicios y los servicios dirigen la tecnología, las AOS permiten definir servicios que conforman la capa de abstracción entre el negocio y la tecnología, proporcionando habilidad para responder a cambios en los requisitos. El conjunto de técnicas, recomendaciones y tecnologías que denominamos AOS buscan que los nuevos SSII sean modulares, abiertos e independientes. AOS utiliza un conjunto de tecnologías estándares de software para el intercambio de datos entre aplicaciones tales como SOAP (Simple Object Access Protocol), WDSL (Web Services Description Language) y UDDI (Universal Description Discovery and Integration) (The open Group, 2011): SOAP: Es un protocolo de mensajería para el intercambio de información entre sistemas. WSDL: Es un lenguaje XML para describir los servicios en la arquitectura SOA. UDDI: Define los mecanismos para publicar (catalogar) servicios en un registro, y para que sus consumidores puedan buscarlos y encontrar su localización física. Permite administrar la información sobre componentes de servicios y su Figura 1. Creación, registro, búsqueda y uso de un servicio Web Fuente: (Besteiro y Rodríguez, ,s.f.) Los WS suponen una interconexión punto a punto que, por sí sola, no tienen capacidad de integración y flexibilidad frente a los cambios que se necesitan en los SSII de las organizaciones, de ahí la importancia de integrarse con otras herramientas tecnológicas, como AOS y BSE. 2.3 Bus de servicios de empresa BSE BSE es una arquitectura de software de middleware que ofrece los servicios fundamentales para desarrollar arquitecturas más complejas, proveyendo la infraestructura de comunicaciones subyacente a otros componentes software. Revista Politécnica – Marzo 2016, Vol. 37, No. 2 87 Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3 _______________________________________________________________________________________________________________________________ En un BSE las aplicaciones y los servicios para el manejo de eventos están unidos en una AOS con muy bajo acoplamiento, lo que les permite operar de manera independiente uno de otro sin dejar de ofrecer valor agregado a las funciones de negocio. BSE provee la implementación troncal para un AOS, utiliza un bus de mensajes multi-protocolos lo que ofrece un enfoque altamente distribuido para la integración, permitiendo a los departamentos o unidades de negocio construir su proyecto de integración de manera incremental. BSE considera las mejores prácticas en patrones de diseño, para integración de aplicaciones, planteando la existencia de un componente de mediación que provee servicios de enrutamiento, transformación de mensajes, publicación y distribución de eventos y soporte para múltiples protocolos BSE permite mantener el control local y autonomía en un proyecto de integración individual, sin dejar de ser capaz de conectar cada proyecto de integración a una red de integración más global. Un BSE se caracteriza por: Integración basada en estándares Penetrante: capaz de atravesar una empresa extendida e ir más allá, teniendo un alcance global a través de las organizaciones departamentales, unidad de negocio y socios comerciales Integración altamente distribuida y despliegue selectivo Transformación de datos distribuidos Manejo de eventos AOS Transparencia de ubicaciones Transparencia del transporte Soporte, multiprotocolo Basado en patrones de intercambio de mensajes Capacidad para el manejo de flujo de procesos Seguridad y confiabilidad Ambiente federativo pero autónomo Configuración remota y administración Tiempo real del flujo de datos XML como el tipo de dato nativo de BSE Reconocimiento de las operaciones Un ESB provee la infraestructura básica, a la que se le pueden incorporar componentes en forma de módulos. Ver Figura 2 3. DESARROLLO DEL SISTEMA DE ASIGNACIÓN DE BECAS El desarrollo del sistema se realizó en dos fases, inicialmente se hizo el análisis de negocios a fin de identificar y especificar sus procesos, actividades, y los objetos del negocio que se consumen o generan para finalmente definir los requisitos del sistema. En la segunda fase, utilizando Scrum como método ágil para la gestión de proyecto, se realizó el diseño y construcción del sistema. 3.1. Análisis del negocio 3.1.1. Modelo de Procesos La PUCESI tiene como política institucional, la ayuda y asistencia económica a los estudiantes que así lo requieran. Para alcanzas esta política se han definido un conjunto de procesos que tanto estudiantes como docentes y personal administrativo deben seguir, La Figura 3 muestra el modelo de procesos que se definió luego del análisis realizado, para su simbolización se utilizó la notación BPMN (Business Process Modeling Notation). En este modelo se especifican todos los procesos que se realizan para la solicitud y asignación de becas. BPMN DiaramaProcesos «BusinessProcess» Elaboración del cronograma de presentación de información de becas. «BusinessProcess» Recepción de las solictudes de beca «BusinessProcess» Verificación de la información de las solicitudes «BusinessProcess» Elaboración de informes «BusinessProcess» Resolución de la Comisión. «BusinessProcess» Análisis de las becas por parte de la Comisión Figura 3. Modelo de procesos para la asignación de becas Fuente: Elaboración propia Para asegurar la ejecución de cada uno de los procesos, internamente se realizan un conjunto de actividades y se consumen o generan datos e información conocidos como objetos del negocio. La Figura 4a y 4b presentan los diagramas de actividades asociados a los procesos de Recepción de solicitudes y Resolución de la comisión. BPMN Elaboración de las solictudes de beca Solicitud de beca solicitudBeca «flow» Inicio Recibir la solicitud de beca Documentación de Soporte Documentación «flow» Verificar documentación de soporte Fin Figura 4a. Diagrama de actividades del proceso de Recepción de solicitudes de beca Fuente: Elaboración propia Figura 2. Esquema SOA basado en BSE Fuente: (Pernalete, López, Montaño, Miguel, 2007) Revista Politécnica- Marzo 2016, Vol. 36, No. 2 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios _________________________________________________________________________________________________________________________ BPMN Análisis de Becas por parte de la Comisión BecaAprobadas Informe analisis de beca Estudiante uc RequisitosAsignaciónBecas Sistema Asignación de Becas Inicio Discusión de la beca Estudiante EstudiantesBecas InformePostulante «flow» «flow» aprobada «flow» Aprobar beca Enviar notificación aprobación Gestionar de Solicitudes Estudiantes Enviar notificación de no aprobación Firmar Acta Fin Manej ar Sistema Académico «trace» Acta aprobación Figura 4b. Diagrama de actividades del proceso de Resolución de la comisión Fuente: Elaboración propia Personal PUCESI Getionar Becas 3.1.2. Modelo de Objetos del negocio Los objetos de negocio representan los conceptos que emergen durante la fase de análisis, se refiere a esos elementos que son consumidos o generados por las actividades de cada proceso. El diagrama de la Figura 5 describe los objetos del negocio identificados. Elaborar Informes Figura 6a. Diagrama general de casos de usos (requisitos) Fuente: Elaboración propia uc Gestionar de Solicitudes Gestionar solicitud Solicitar Beca Consultar requisitos beca «extend» Consultar Solicitud Figura 5. Modelos de objetos del negocio Fuente: Elaboración propia 3.2. Estudiantes Personal PUCESI Negar Solicitud Identificación los de requisitos funcionales En este proceso se analizaron, identificaron y clasificaron los requerimientos que el sistema de asignación de becas debía satisfacer. La Figura 6a presenta el diagrama de casos de uso general del sistema. En él se definen las principales funcionalidades del sistema, como son gestionar las solicitudes, gestionar datos de las becas, elaborar informes y repostes administrativos y manejar los datos académicos de los estudiantes. La Figura 6b muestra la análisis del diagrama de casos de uso Gestión de Solicitudes y la Figura 6c los casos de uso del proceso de análisis del caso de uso Elaboración de Informes. Validar solicitud Aprobar Solicitud Actualizar DatosSolicitud Figura 6b. Diagrama de Caso de usos de gestionar solicitud Fuente: Elaboración propia Revista Politécnica – Marzo 2016, Vol. 37, No. 2 88 89 Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3 _______________________________________________________________________________________________________________________________ 3.3.1 uc Elaborar Informes Servicios Web por áreas: Elaborar informes Elaborar reporte pension por periodo Para implementar los servicios utilizando el bus de servicios, fue necesario dividir los servicios por áreas, en ellas se integran los servicios que interactúan con el proceso de becas. Las áreas definidas fueron: «extend» Elaborar reporte pensión por fecha Elaborar reportes económicos «extend» Académica Financiera Administrativa Externa «extend» Elaborar reporte pensión unificado 3.3.2 Arquitectura del software Elaborar reporte general becas El diseño de la arquitectura software sigue el patrón de diseño MVC, basado en el estilo arquitectónico de capas, los Servicios definidos se agrupan en componentes, estos son: «extend» Elaborar informes a la comision Figura 6c. Diagrama de Caso de elaborar informe Fuente: Elaboración propia 3.3. Diseño de Sistemas En el diseño de la aplicación se especifican los componentes, con los servicios que provee cada uno, el modelo de datos lógico, implementable y físico, y la interfaz del sistema. Esta aplicación, además de los requisitos funcionales posee requisitos no funcionales, entre ellos los que incidieron directamente en la toma de decisiones arquitectónicas son: la escalabilidad, interoperabilidad y mantenibilidad de la aplicación, en base a estos requisitos se decide AOS como estilo y MVC (Modelo Vista Controlador) como patrón arquitectónico (Bass, Kazma, 2003). El diseño y construcción se gestionó utilizando un método ágil, en este caso Scrum. En cada iteración (sprint) se diseñó e implementó las funcionalidades seleccionadas en base a sus prioridades (clasificación) que se establecieron en la fase de análisis. En este trabajo se presenta la arquitectura final obtenida, la cual fue el resultado de un proceso de diseño y refinamiento realizado en las iteraciones. En el diseño del sistema se definen: los servicios requeridos por la aplicación, especificados en el modelo de servicios; el flujograma del proceso de becas, la interfaz de cada servicio web y las conexiones para la integración de las aplicaciones. Adicionalmente, para satisfacer el requisito no funcionales se propuso utilizar un BSE, dada sus características de alta integración, bajo acoplamiento y escalabilidad que ellos poseen. La de integración entre las diferentes aplicaciones, programados como los servicios web se realizó en el servidor de aplicaciones, utilizando el servidor instalado para el manejo del UDDI permitiendo la búsqueda e invocación de servicios de otras aplicaciones con el sistema de becas. Becas Solicitudes Informes Reportes Académico La Figura 7 presenta el diagrama de componentes de la aplicación, en él se especifican los servicios que se identificaron, los mismos fueron implementados usando un BSE para la integración de los servicios. 3.3.2.1 Becas Este componente es responsable de: Ingresar los datos de configuración del nuevo semestre. Realizar las consultas de las becas por periodo académico: despliega los tipos de becas. Modificar la configuración del periodo académico actual cmp ModeloServ icios Becas Reporte + + + + + + + + configurarBeca(string, date) :void consultarBacaPeriodo(date) :void modificarConfiguraciónBeca(date) :void requisitosXBeca() :void estadoAcademico() :void becasXPeriodo() :void becasUnificado() :void becaXFecha() :void Solicitudes Infome + efectivacionBeca() :void + + + + + + + + registrar(Estudiante) :void consulta(Estudiante) :void aprobarComision(Estudiante) :void negarComision() :void validarComision() :void imprimir() :void generarActa() :void requisitoestudianteXbeca() :void Académico + consultarmatriculacion() :void + consultarAcademicaEst() :void Figura 7. Modelo de servicios del sistema de asignación de becas Fuente: Elaboración propia Revista Politécnica- Marzo 2016, Vol. 36, No. 2 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios _________________________________________________________________________________________________________________________ 3.3.2.2 Solicitudes 90 servicios UDDI y deben definirse de acuerdo con sus instrucciones de publicación (Microsoft, 2014). Este componente es responsable de: La consulta de solicitudes mediante parámetros de búsqueda (fechas de inicio, fecha de fin y período académico). Realizar el despliegue y registro de solicitudes en grilla de datos. Realizar una solicitud, para ello se requiere ingresar los datos de los postulantes (datos personales, dirección, tipos de becas, categoría, motivo de la solicitud). Ingreso de datos al proceso de becas para comisión Generar acta por parte de la comisión Los datos personales son cargados desde el sistema académico mediante servicios web. 3.3.2.3 Informes Este componente es responsable de emitir el informe de efectivización de beca Para publicar un servicio web se debe inicialmente crear su proveedor. Este proveedor representa el grupo o la organización responsable del servicio que está preparado para publicar y se definirse de acuerdo con sus instrucciones de publicación. Por ello, en este desarrollo, fue necesario publicar un proveedor de servicios, agregar información de contacto, agregar información de instancia. 3.4.2 Consumo y publicación de servicios web: Para la creación de servicios web se realizó un manual de procedimientos para el consumo de los servicios. Por ejemplo, para el uso de los servicios web se debe solicitar una autorización mediante el siguiente procedimiento: Solicitar autorización para el consumo del servicio web Aprobar autorización para el consumo del servicio web Generar credenciales de acceso al servicio web Probar el servicio web 3.3.2.4 Reportes pensión 3.4.3 Implementación de los servicios Web Este componente es responsable de emitir reportes del estado de las becas. Se implementaron todos los servicios web especificados en el modelo de servicios; para acceder la información que se encuentra en otros sistemas de la PUCESI se usó el BSE como herramienta para la integración. Finalmente la aplicación se integró con las siguientes aplicaciones de la institución. 3.3.2.5 Sistema académico Este componente es responsable de: Interactuar con el Sistema Académico, para obtener información de la matriculación. Obtener la oferta académica de los estudiantes, docentes, personal administrativo. 3.4 Construcción de la aplicación Servicios Web de períodos académicos Estudiantes de pregrado Datos de docentes Datos de personal administrativo Reporte de becas Tipos de becas Para la construcción de la aplicación fue necesario: 3.4.4 Ingreso al sistema 3.4.1 Publicar los servicios web Para el ingreso al sistema es necesario inicialmente autenticarse, si las credenciales del usuario son correctas se accede a las funcionalidades del sistema según rol asignado. Para la publicación de los servicios web se utilizaron Servicios Web, y los estándares definidos en las AOS, XML WSDL y UDDI. Se requirió crear una nueva entidad de servicio dentro de su proveedor. Este servicio representa el servicio web XML que se publica en el directorio de servicios del UDDI y debe definirse de acuerdo con sus instrucciones de publicación, luego se creó el enlace a cada punto de acceso al servicio que se publicó. Un punto de acceso es cualquier punto dentro de la aplicación o el servicio Web donde se puede invocar una función. El número de enlaces que se publique depende del número de puntos de acceso que desee exponer mediante La interfaz de la aplicación se asemeja a los formularios de ventanas tipo Windows, en ella se le despliega en la barra lateral izquierda las funcionalidades que usuario tiene definidas para el rol con el cual ingresó, la acciones son enviadas a en los diferentes subsistemas de la aplicación a través de botones estándares La Figura 8 muestra un ejemplo de la interfaz de la aplicación Revista Politécnica – Marzo 2016, Vol. 37, No. 2 91 Quishpe Santiago1; Rivero, Dulce1,2; Rivas, Francklin1,2,3 _______________________________________________________________________________________________________________________________ Reporte de solicitudes con facturación Permitir imprimir o exportar los datos de la facturación y las solicitudes de los estudiantes seleccionando el período académico. Reporte de becas Genera reportes, imprime o exporta de los tipos de becas. 4. CONCLUSIONES Y TRABAJOS FUTUROS Figura 8. Interfaz de la aplicación Fuente: Elaboración propia 3.4.5. Otros componentes desarrollados Adicionalmente a los componentes definidos en el modelo de servicios se desarrollaron otros componentes 3.4.5.1 Módulo de administración de becas El módulo de administración de becas debe permitir realizar las configuraciones del sistema. 3.4.5.2 Notificación de solicitudes Este módulo permite a la aplicación notificar la creación de una solicitud de beca. Las notificaciones ser realizan a través del envío de un correo electrónico. En este trabajo se presenta el diseño de soluciones tecnológicas utilizando un bus de servicios para la integración de aplicaciones al área de asignación de becas en instituciones educativas. El bus permitió diseñar una arquitectura centralizada para la administración de servicios, permitiendo resolver la escalabilidad de conexiones entre aplicaciones de la institución. El diseño del sistema, permite la automatización del proceso de la gestión y control de becas mediante la información obtenida entre las dependencias que intervienen en dicho proceso. 3.4.5.3 Configuraciones de usuarios El sistema diseñado para el proceso de becas optimizó los recursos humanos, tecnológicos, económicos y materiales, ya que el sistema elimina la duplicidad de trabajo, manipulación y error humano entre las dependencias. Este módulo sirve para configurar y crear los diferentes tipos de usuarios, además de permitir definir los roles y funcionalidades que tendrá cada rol en el sistema, asociando a cada usuario uno o más roles Para darle continuidad a este trabajo, en un futuro se deben definir los procedimientos y procesos de integración mediante servicios web para la integración de nuevas aplicaciones con el bus de servicios. 3.4.5.4 Informe y repostes Integrar nuevas funcionalidades o módulos para la solicitud de becas en línea A continuación se listan los informes que se envían a la comisión: Reporte pensión diferenciada por período Permite imprimir o exportar los datos de la facturación en el período académico en base a campos y parámetros requeridos por estudiante. Los autores desean agradecer a la Secretaría de Educación Superior, Ciencia, Tecnología e Innovación del Ecuador y el Programa Prometeo por su apoyo a esta investigación. Reporte pensión diferenciada por fechas Permite imprimir o exportar los datos de la facturación de los estudiantes ingresando la fecha desde y hasta con campos y parámetros requeridos. AGRADECIMIENTO Reporte pensión diferenciada por fechas y período Permite imprimir o exportar los datos de la facturación de los estudiantes ingresando la fecha desde, fecha hasta, período académico con campos requeridos. REFERENCIAS Bass, P. Clements, R. Kazman (2003) Software Architecture in Practice.. 2nd Edition. Addison Wesley Besteiro M. y Rodríguez M. (s.f.). WebService Obtenido de http://www.ehu.eus/mrodriguez/archivos/csharppdf/ServiciosWeb/WebServi ces.pdf Calvo, J.; Gracia, J; Bayo, E. (2014). Aplicación web para el análisis y diseño de estructuras. Informes de la Construcción. Chappell, David (2004). Enterprise Service Bus: Theory in Practice. O'Reilly Media Inc. Unite State of America. Revista Politécnica- Septiembre 2015, Vol. 36, No. 2 Diseño de un Sistema Web para Asignación de Becas con Integración e Interoperabilidad en Base a un Bus de Servicios _________________________________________________________________________________________________________________________ Corporation, M. (2010). Obtenido /Downloads/070717-Real_World_SOA.pdf de file:///C:/Users/squishpe Echeverría, Daily; Astudillo, Hernán; Estrada, Rodrigo (2008). ESB-QM: Modelo de Calidad para productos ESBs. EIG 2008. Enríquez, E. (2007). SOA (Arquitectura Orientada a Servicios). SOA (Arquitectura Orientada a Servicios). Ibarra, Ecuador: Obtenido de http://repositorio.utn.edu.ec/bitstream/123456789/587/1/CAPITULOS.pdf. Huanzhuo Y.; Shuai C.; Fang, G.; Yuning, H. (2008). SOA-based conceptual model for continuous auditing: A discussion. Conference. on APPLIED COMPUTER & APPLIED COMPUTATIONAL SCIENCE (ACACOS '08), 400-405. Ildapena. (2009). http://www.xperimentos.com. Obtenido de http://www.xperimentos.com: http://www.xperimentos.com/2009/02/03/busde-integracion-de-servicios-corporativos-enterprise-service-bus/ IBM (2011) Introducción a SOA y servicios web. Obtenido de https://www.ibm.com/developerworks/ssa/webservices/newto/ Microsoft. (2014). Overview of UDDI Services. http://msdn.microsoft.com/en-us/library/cc731374.aspx Obtenido de Pernalete, Doris; López, Maria Gertrudis; Montaño, Nora; Miguel, Vanessa (2007). IMS – Learning Design y el Modelo Arquitectural de AMBAR. Pais Vasco: SPDECE 2007. Procesos de Negocios (BPM) (2006): Obtenido https://msaffirio.wordpress.com/2006/02/05/%C2%BFque-son-los-webservices/ de Saffirio, M. (2006). Tecnologías de Información y Gestión de Procesos de Negocios (BPM). Obtenido de Tecnologías de Información y Gestión de The Open Group (2011) Service Oriented Architecture : SOA Reference Architecture Technical Standard. Obtenido de www.opengroup.org/soa/ source-book/soa_refarch/ SNAP. (2014). CONSUMO DE SERVICIOS WEB (SW). Obtenido de: http://www.administracionpublica.gob.ec/wp-content/uploads/downloads/ 2014/08/Manual_de__Consumo_SW_en__BSG__V1.0_fin.pdf Universidad de San Buenaventura. (s.f.). ARQUITECTURA SOA COMO ESTRATEGIA DE ARTICULACIÓN DEL NEGOCIO Y LA TECNOLOGÍA. Obtenido de http://www.usbmed.edu.co/index.php/ universidad/2-uncategorised/133-edcontinua-arquitectura-soa W3C Consortium. Web Services Architecture. Obtenido http://www.w3.org/ TR /2004/NOTE-ws-arch-20040211/#whatis. de ZapThink, LLC. How to define a business service. Obtenido de http://www.zapthink.com Revista Politécnica – Marzo 2016, Vol. 37, No. 2 92 Producción de Cursos Educativos Abiertos con Herramientas Sociales _________________________________________________________________________________________________________________________ 93 Producción de Cursos Educativos Abiertos con Herramientas Sociales Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1 1Universidad Técnica Particular de Loja, Departamento de Ciencias de la Computación y Electrónica, Loja, Ecuador 2Escuela Universitaria de Diseño, Innovación y Tecnología, Madrid, España Resumen: Durante los últimos años se ha promovido con mayor intensidad la incorporación de nuevas universidades al movimiento Open Course Ware (OCW) y esto ha permitido que cada día brinden a los usuarios más posibilidades de aprendizaje on-line, mediante los cursos que publican. En el presente documento se define el proceso de elaboración de un curso OCW utilizando la metodología Recursos Educativos Abiertos con Componentes Sociales (REACS), su implementación en el Sitio OCW-UTPL en la plataforma EduCommons; así como también se detallan los resultados obtenidos después de la implementación de la metodología. Palabras clave: REA, OCW, Recursos Educativos Abiertos, REACS, Producción, Herramientas Sociales. Production of Open Educational Courses with Social Tools Abstract: During the past few years, the Open Course Ware (OCW) movement has been promoted in new universities with great intensity, this has allowed to provide users more opportunities for learning on-line. The present document defines the process of developing a course using the OCW Open Educational Resources with Social Components (REACS) methodology, its implementation into the OCW Site-UTPL site with the EduCommons platform; as well, the results obtained after the implementation of the methodology are detailed Keywords: OER, OCW, Open Educational Resources, REACS, Production, Social tools. 1 gestión e interacción adecuada de la información para los estudiantes. 1. INTRODUCCIÓN Open Course Ware es la publicación de material educativo, creado por docentes universitarios, donde los estudiantes y personas en general pueden acceder a ellos de manera gratuita, la publicación de este contenido se hace mediante el uso de una plataforma que permite la gestión y administración de cada uno de los cursos publicados en el sitio. En el 2001 el Instituto Tecnológico de Massachusetts (MIT) con la ayuda de la Fundación William and Flora Hewlett2 y la Fundación Andrew W. Mellon lanzaron la primera iniciativa del proyecto OpenCourseWare (OCW). El presente artículo tiene como objetivo mostrar los resultados de la implementación de una metodología, para la creación de recursos educativos abiertos con componentes colaborativos denominado (REACS) probado en Universidad Técnica Particular de Loja, en el cual se pudo determinar con resultados preliminares que se pudo disminuir el tiempo empleado en la publicación de un curso, logrando así la [email protected] 2. MARCO TEÓRICO 2.1 Recursos Educativos Abiertos El Foro de la Unesco (Forum on the Impact of OpenCourseWare for Higher Education in Developing Countries Final report, 2002) sobre el impacto del material educativo abierto en la educación superior en el 2002, definió los Recursos Educativos Abiertos (REA) de la siguiente manera: «[…] materiales en formato digital que se ofrecen de manera gratuita y abierta para educadores, estudiantes y autodidactas para su uso y re-uso en la enseñanza, el aprendizaje y la investigación.» (Más allá de los contenidos: compartiendo el diseño de los recursos educativos abiertos, 2007). Entre las características que poseen los recursos educativos abiertos como menciona (Varlamis & Apostolakis, 2006) se encuentran los siguientes: Accesibilidad Reusabilidad Interoperabilidad Sostenibilidad Revista Politécnica - Marzo 2016, Vol. 37, No. 2 94 Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1 _______________________________________________________________________________________________________________________________ Metadatos 2.2 Tipología de los REA Existen tres tipos de REA como se menciona en el Foro Interamerica TIC´s y Educación Superior del 2009 (http://campus.oui-iohe.org/forotics/?p=14). Moodle 10% Open Course Ware: Proporcionan libre acceso a materiales elaborados por instituciones educativas particulares en contexto de enseñanza presencial. Open Educational Resources Content: Proporciona libre acceso a materiales de redes de instituciones orientados a la enseñanza abierta, a distancia o virtual. Open Educacional Resources: Libre acceso a contenidos con posibilidad de reelaboración de los mismos. 2.3 Open Course Ware (OCW) En Abril del 2001 el Instituto Tecnológico de Massachusetts MIT en cooperación con la Fundación William and Flora Hewlett y la Fundación Andrew W. Mellon dan a conocer su iniciativa Open Course Ware. Los OCW tienen como objetivo principal compartir el contenido de los materiales de los cursos impartidos en las universidades a través de la web, permitiendo así, que los usuarios tengan un acceso libre a estos recursos de manera gratuita. En el 2005 se creó el Open Course Ware Consortium (OCWC, http://www.oeconsortium.org/), una comunidad mundial formada por instituciones de educación superior y otras organizaciones comprometidas con el avance del OCW y su impacto en la educación; el OCWC a junio del 2015 cuenta con más de 280 organizaciones (http://goo.gl/YBXGM7). 2.4 Plataformas para creación de OCW El uso de una plataforma para la publicación de los cursos es un requisito importante que utilizan las diferentes instituciones; conforme ha crecido el proyecto, a lo largo de estos años se han implementado nuevas plataformas para el desarrollo de sitios OCW, entre las cuales se encuentran Educommons, Moodle, Drupal, etc. En (Borrás, 2010) se mencionan las plataformas de OCW más utilizadas a nivel mundial representadas en la Figura 1. 3. PLANTEAMIENTO DEL PROBLEMA Según (Centro de Nuevas Iniciativas, 2008); existen tres razones importantes para usar, producir y compartir los REA, dividiéndose en: motivos tecnológicos, económicos, sociales y jurídicos. Educommons 25% Sin Publicar 37% Otros 25% Drupal WordPress 2% 1% Figura 1. Utilización de Plataformas OCW (Borrás, 2010) La construcción de los REA, involucra el uso y reutilización de recursos digitales como videos, textos, imágenes, etc., incluyendo el desarrollo de metadatos asociados a dichos recursos, los cuales permiten el almacenamiento, catalogación y búsqueda en repositorios, así como los derechos de autor relacionados que determinan si pueden ser consultados, utilizados o reeditados. En (Velarde, Lozano, & Ramírez, 2009), se definieron los aspectos necesarios para generar un modelo de OCW innovador, centrándose en las aportaciones referentes al diseño instruccional basado en e-learning, donde se consideren las necesidades de implementación de acuerdo a los requerimientos de los participantes, los recursos y guías de utilización de los recursos; sugiriendose como punto de partida para futuras investigaciones desarrollar, implementar y evaluar dicha propuesta. En la revisión bibliográfica sobre métodos de creación de REA realizada por (Arimoto & Barbosa, 2012), se menciona que existen pocos métodos sistemáticos para la creación y aceptación adecuada de los REA; además se presta poca atención a la adopción de las tecnologías como Web 2.0 y la web semántica, pesar del gran potencial que tienen estas tecnologías para contribuir eficazmente al desarrollo, publicación y búsqueda de los REA las cuales han sido consideradas únicamente en el método propuesto por (Cueva, Rodríguez, & Romero, 2010). De lo mencionado anteriormente se concluye que no existe un proceso estandarizado de creación de OCW. Por lo cual, este trabajo se centra en la aplicación de un proceso estándar que incluya las mejores prácticas para la creación de los recursos educativos utilizando herramientas sociales denominado REACS. 4. METODOLOGÍA Esta investigación consta de diferentes partes, la primera consistió en la recolección de información teórica sobre los REA en particular sobre los OCW y sus características, los modelos de diseño instruccional, así como también un análisis sobre los ciclos de producción de los OCW, cabe destacar que algunas de las instituciones no tienen definido una metodología para la producción de los OCW. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Producción de Cursos Educativos Abiertos con Herramientas Sociales _________________________________________________________________________________________________________________________ Se ha considerado aplicar el ciclo de producción REACS propuesto por realizado por (Cueva, Rodríguez, & Romero, 2010), el mismo que se basa en el modelo de diseño instruccional ADDIE (análisis, diseño, desarrollo, implementación y evaluación); luego se realizó la implementación de la metodología y la evaluación que se debería realizar utilizando el modelo de (Kirkpatrick & Kirkpatrick, 2006); una vez puesto el curso a disposición de los usuarios. 4.1 Propuesta para la creación de OCW con componentes sociales La metodología propuesta para la producción de cursos OCW con componentes sociales REACS, se basa en las cinco fases del modelo de diseño instruccional ADDIE; en cada una de estas fases se incluirán componentes sociales. Para cada una de las fases del modelo REACS se propone un componente social, que dependerá de cada uno de los propósitos establecidos como se muestra en la Figura 2. 4.2 Implementación de REACS En este trabajo se ha seleccionado el curso de Ingeniería de Requisitos de la titulación de Ingeniería en Informática de la Universidad Técnica Particular de Loja para implementar el ciclo de producción REACS, el mismo que se utilizó como caso práctico en (Rojas & Cueva, 2014). Primeramente se realizó una encuesta a los estudiantes con el fin de determinar las necesidades que se quiere satisfacer con los recursos que se obtendrían en las fases siguientes, así mismo se realizó un bosquejo general de los datos del curso OCW, se definieron el recurso humano y tecnológico que se necesita para cumplir con los propósitos establecidos en las fases de diseño, desarrollo, implementación y evaluación. En la fase de diseño se establecieron los objetivos generales y 95 específicos del curso de Ingeniería de Requisitos, así como las competencias que debe tener el estudiante que curse la misma, se definieron el tipo de metadatos que se va utilizar, así como también el tipo de licencia, etc. Para la fase de desarrollo se determinó utilizar la herramienta social Alfresco la cual permitió el trabajo colaborativo, la organización de los recursos encontrados, vez encontrados dichos recursos se procedió a calificarlos de acuerdo a criterios de valoración establecidos en esta fase; en un estudio realizado anteriormente se estableció utilizar la plataforma Educommons para la creación y gestión de los cursos. Posteriormente en la fase de implementación se determinaron los metadatos utilizados para el curso Ingeniería de Requisitos, a continuación se realizó la instalación de la plataforma, y las herramientas necesarias para la implementación del curso. Para cada una de las fases de la metodología REACS se realizó la evaluación formativa en base a un modelo expuesto por (Riera, et al., 2000), que consiste en un banco de preguntas para cada una de las fases. Después de finalizado el curso y puesto a disposición de los estudiantes se realizó la evaluación sumativa basado en el método propuesto por (Kirkpatrick & Kirkpatrick, 2006), el cual está orientado a la evaluación de la formación recibida a partir de encuestas realizadas a los estudiantes del curso. Todo este proceso se representa en la Figura 3 y seguidamente se especifica el mismo: Fase de Análisis: Propósito: Identificar la necesidad a satisfacer por el REA desde el entorno ¿qué se necesita producir?, Identificar los datos generales de un curso OCW, Determinar el recurso humano y tecnológico. Componente Social: Utilizar la herramienta colaborativa Google Docs, debido a que tiene características para soportar Figura 2. Ciclo de Producción (Cueva, Rodríguez, & Romero, 2010) Figura 3. Diagrama del ciclo de Producción utilizando REACS Revista Politécnica - Marzo 2016, Vol. 37, No. 2 96 Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1 _______________________________________________________________________________________________________________________________ trabajo colaborativo (http://bit.ly/11U38mz), indexación de contenido; además que en este ciclo de producción se utilizarán herramientas online y/o de bajo costo para poder reducir el costo de la producción de los OCW. En esta fase son tres ítems los que se tomaron en cuenta: a) Identificar la necesidad a satisfacer por el OCW, b) identificar los datos generales de un curso OCW, c) determinar el recurso humano y tecnológico. Para identificar las necesidades a satisfacer por los recursos, se desarrolló una encuesta sobre el conocimiento y acceso a la información, utilizando la herramienta Google Docs, la misma que permitió el envío del cuestionario y conocer la opinión de los estudiantes/usuarios, frente a las herramientas y servicios que posibilita el Internet, para la búsqueda, recuperación y selección de información en el ambiente académico. Para la realización de la encuesta se tomó en cuenta el número de estudiantes de la Titulación de Sistemas Informáticos y Computación de la Universidad Técnica Particular de Loja del periodo Abril-Agosto 2014, dando un total de 349 alumnos que es el valor de la población. Una vez obtenido este dato se utilizó la Ecuación (1) propuesta por (Triola, 2012), para calcular el tamaño de la muestra como se indica a continuación: 𝑛= 𝑍2𝜎2𝑁 (1) 𝑒 2 (𝑁−1)+ 𝑍 2 𝜎 2 Donde: n= tamaño de la muestra N= tamaño de la población (349) σ = desviación estándar, sustituyendo (0,5) Z = nivel de confianza, sustituyendo (1,96 = 95 %) e = límite aceptable del error muestral (0,05) Reemplazando los valores, el tamaño de la muestra a utilizar para la realización de la encuesta se obtuvo el valor 183 estudiantes; luego de realizada la encuesta se obtuvieron a las siguientes conclusiones: El 46 % de los estudiantes se conecta a internet en un periodo de 7 a 10 horas, principalmente por entretenimiento y para conectarse con sus compañeros. En cuanto a las herramientas que utilizan los estudiantes para reforzar los conocimientos el 32 % de ellos utiliza Slideshare de la universidad, así mismos el 46 % considera que los recursos encontrados son buenos a diferencia del 16% que los estima regulares. Con respecto a los cursos OCW solo un 15 % de los estudiantes tienen conocimientos y han usado los mismos. Con los resultados obtenidos, se observa la factibilidad para la creación de cursos OCW considerando las aptitudes y el alto nivel de acceso a internet que poseen los estudiantes; además del exponencial crecimiento de instituciones que se han unido al movimiento OCW. En la Tabla 1 se describen los datos generales del curso de Ingeniería de Requisitos. Así mismo se determinó el recurso humano y tecnológico que se requiere para la puesta en marcha del proyecto Tabla 2. Fase de Diseño Propósito: ¿Para qué? ¿Para quién? ¿Cómo? Definir objetivos, contenidos, estructura, metadatos y licencias. Componente Social: Utilizar para la fase de definición de objetivos, contenidos base, estructura, categorización, metadatos y licencias, herramientas sociales tipo wikis, blogs, Google Docs. En esta parte especificaron los objetivos de aprendizaje que del curso, para ello se consideraron las temáticas y el plan de estudio del curso Ingeniería de Requisitos, así como también el perfil del estudiante, dado que ésta se encuentra en el 6to ciclo del pensum de estudio, con lo cual se desarrolló el plan de estudio y las competencias que requiere el estudiante, se presenta la estructura general del curso, y como primer punto el objetivo general de aprendizaje que este curso busca alcanzar. Objetivo General del curso: La asignatura se presenta como una especialización al proceso de Ingeniería del Software en la parte de Especificación de Requerimientos, permitiendo a los estudiantes adquirir destrezas y habilidades en la captura de las Tabla 1. Datos Generales de un OCW Título Nombre del Curso Descripción del Curso Nivel del ciclo al que va dirigido el Curso Perfil del alumno Objetivos de aprendizaje Contenido El nombre del curso debe ser claro y no tener ambigüedades Descripción del contenido a impartir Nivel del Ciclo Está relacionado con los conocimientos previos del alumno Competencias que se alcanzarán al culminar el curso Tabla 2. Recurso Humano y tecnológico para la creación de los cursos Recurso Humano Actor Descripción Docente (Autor) Creadores del material didáctico Encargado de buscar REA, Equipo técnico adaptar y publicar el curso Evalúa el curso antes de que se Docente (Evaluador) publique Recurso Tecnológico 1. Servidor para la plataforma Equipos de cómputo 2. Equipos del personal técnico Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Producción de Cursos Educativos Abiertos con Herramientas Sociales _________________________________________________________________________________________________________________________ a) necesidades de los stakeholders en un proyecto de desarrollo de software. b) Actividades de aprendizaje: Se definieron las actividades que se deben realizar de acuerdo al plan de contenidos. c) 97 Entorno de Aprendizaje que se va a utilizar para la implementación del Curso OCW. Componente Social: Buscar y ubicar los recursos desde herramientas sociales. Utilizar herramientas colaborativas como Google Docs, Alfresco (http://www.alfresco.com/) para la compartición de los recursos encontrados. Material del curso: En este aspecto para el curso “Ingeniería de Requisitos” se consideró utilizar contenidos digitales como: videos, presentaciones, basándose en cada una de las unidades del curso, para ello se dispuso buscar de forma manual cada uno de estos recursos, tomando como base herramientas sociales como: slideshare, youtube, blogs, etc. Lo primero que se realizó es un proceso de búsqueda manual, para ubicar cada uno de los recursos que sirvan como material de apoyo para el curso de Ingeniería de Requisitos; para ello se utilizó la herramienta Alfresco que permite la administración de los contenidos. d) Contenido del curso: El contenido del OCW está dado por categorías quedando como se indica en la Tabla 3. Luego se identificaron los recursos adecuados para cada una de las unidades de estudio, seleccionándolos de acuerdo a los siguientes criterios: e) Metadatos y Licencia: Estos metadatos, permiten la identificación, recuperación, utilización y reutilización de un curso, es así que se ha definido tres tipos de metadatos con los cuales se trabaja basándose en el estándar Dublín Core como se observa en la Tabla 4. Es imprescindible la utilización de una licencia para el uso del contenido y los recursos, es por ello que para la publicación de los cursos en el sitio OCW-UTPL se usa la Licencia Creative Commons 3.0 Ecuador (http://creativecommons.org/licenses/by/3.0/ec/.) Fase de Implementación Propósito: Implementar, integrar y gestionar el curso OCW. Componente Social: Usar el Estándar de Agregación de Contenidos SCORM para el empaquetamiento de los cursos. Utilizar el gestor de contenidos EduCommons para la publicación de los cursos. Fase de Desarrollo Propósito: Puesta en marcha del diseño, búsqueda de los recursos para reforzar los contenidos del curso, Especificar el Tabla 3. Categorías del contenido del curso Categoría Descripción Formatos Temario Guía de aprendizaje propuesta y .pdf (Syllabus) recomendada por el profesor, plan del curso Ingeniería de Requisitos Lecturas Bibliografía base y .pdf (Readings) complementaria .html Laboratorios Actividades recomendadas para .pdf (Labs) práctica Exámenes Autoevaluaciones .pdf (Exams) Material de Recursos Educativos Abiertos .pdf studio (videos, presentaciones) .pps (Study .flv Materials) Tabla 4. Metadatos del curso Metadatos Descripción Título, materia, descripción, Elementos de contenido lenguaje Autor, colaborador, derechos de Propiedad intelectual propiedad intelectual bajo licencia Creative Commons Elementos de aplicación Fecha, formato, identificación Procedencia del contenido Fecha de publicación Valoración por el número de reproducciones Licencia El Estándar de Agregación de Contenidos SCORM permite el empaquetamiento y distribución del material educativo en cualquier momento, este estándar asegura que este material sea accesible, reutilizable, interoperable y durable. Para el empaquetamiento se utilizó un software generador de paquetes SCORM, existen varios software que pueden ayudar en esta actividad en este caso se usó Reload Editor (http://www.reload.ac.uk/editor.html). En esta fase se procede a la creación del curso utilizando el sistema de gestión de contenidos Educommons y su correspondiente empaquetamiento utilizando Reload Editor. Fase de Evaluación Propósito: Evaluar los cursos publicados tanto en diseño como en contenido. Componente Social: Utilizar herramientas sociales para la difusión de los cursos, y para la evaluación de los resultados. Aunque la Evaluación es la última fase de la metodología REACS es un componente importante en cada una de las cuatro fases anteriores, es por ello que se tomó en cuenta dos tipos de evaluación: formativa y sumativa. La primera Revista Politécnica - Marzo 2016, Vol. 37, No. 2 98 Cueva Samanta1; Torres Rommel2; Rodríguez Germania1; Rojas Carolina1; Marbán Óscar1 _______________________________________________________________________________________________________________________________ consistió en evaluar cada una de las fases del modelo utilizado, mientras que la segunda se fundamentó en evaluar de manera global el curso ya implementado, es decir se desarrolló una vez que se terminó el proceso de creación y publicación del curso. a) b) Evaluación Formativa: La evaluación formativa brinda la posibilidad de que el diseñador pueda realizar la evaluación en cada una de las fases de la metodología. De este modo al conducir cada fase del diseño instruccional, los procedimientos y actividades pueden ser evaluados para asegurar que se realicen en la manera más eficaz para asegurar resultados óptimos. (Riera, et al., 2000). Para todos los cursos en su evaluación formativa se deberá utilizar la Tabla 5 expuesta por (Riera, et al., 2000), en la cual se muestran algunas preguntas de evaluación que se deberían realizar en cada una de las fases del modelo. Evaluación Sumativa: Una vez que se terminó con todas las fases del modelo y consigo la publicación del curso en el sitio OCW-UTPL, es necesario realizar una evaluación donde los estudiantes demuestren que han aprendido exitosamente el Tabla 5. Evaluación Formativa (Riera, et al., 2000) Acciones para la evaluación 1. ¿Se han recogido los datos para la valoración del ambiente externo de la organización? Análisis 2. ¿Son los datos relacionados con las necesidades de aprendizaje? 3. ¿Está completo el contenido propuesto del curso? 4. ¿Corresponden los resultados del curso a los requerimientos identificados previamente? 5. ¿Corresponde el plan de evaluación a los Diseño objetivos? 6. ¿Los materiales facilitan el cumplimiento de los objetivos? 7. ¿Corresponden los materiales de aprendizaje a los resultados, plan de actividades y especificaciones formuladas previamente? 8. ¿Es amigable el ambiente en línea de Desarrollo aprendizaje?, ¿Facilita el aprendizaje? 9. ¿Facilitarán las actividades el aprendizaje de los participantes? 10. ¿Ayudan eficazmente los materiales multimedia en el aprendizaje? 11. ¿Es adecuado el ambiente de aprendizaje en línea? 12. ¿Lograron los participantes los resultados esperados? 13. ¿Qué cambios son necesarios para mejorar Implemenla eficacia de los recursos de aprendizaje? tación 14. ¿Qué tanto provee el docente en la orientación, consejo y soporte al estudiante? 15. ¿Están satisfechos los estudiantes con sus experiencias de aprendizaje? 16. A partir de los resultados de evaluación, ¿cómo debe cambiar la metodología? 17. ¿Los medios de evaluación que se escogieron son los apropiados para esta Evaluación metodología? 18. ¿Son válidos y confiables los instrumentos de evaluación? Fase aprendizaje deseado. Por tal razón se deben evaluar los resultados de la participación en el curso, para ello se debería utilizar el modelo propuesto por (Kirkpatrick & Kirkpatrick, 2006). 5. COMPARACIÓN DEL TIEMPO EMPLEADO EN LA CREACIÓN DEL CURSO Con respecto a la evaluación de éste parámetro, se realizó una comparación entre la publicación del material sin utilizar ninguna metodología y haciendo uso de ella, para la primera parte se realizó dos entrevistas, la primera dirigida a los docentes creadores del material de estudio la misma que consistía en una pregunta que contemplaba el tiempo estimado que ellos utilizaron en crear el contenido del curso a lo que ellos le denominan guía de aprendizaje tomando en cuenta lo siguiente: El tiempo asignado diariamente para el desarrollo de la guía. El dominio que se tiene sobre la materia que se va a realizar la guía. Obteniendo como resultado una media de dos meses para la realización del material. La segunda entrevista se la realizó al administrador del sitio OCW-UTPL quien era el encargado de la publicación de los cursos; ésta entrevista consistió en determinar el tiempo empleado en: dividir la guía en unidades, búsqueda de recursos, autoría del material (Licencia Creative Commons), subida del material, creación de páginas con contenido (estructura del curso); todos estos parámetros dependían de cuantas unidades contiene el curso, es decir entre más material de estudio más tiempo se empleaba; de acuerdo a la entrevista realizada; seguidamente se procedió a realizar una entrevista al equipo de trabajo que utilizó la metodología REACS, cuya comparación se puede observar en la Tabla 6. Con la comparación realizada se puede deducir que con el uso de la metodología la publicación de un curso se lo Tabla 6. Comparativa del tiempo empleado en la creación y publicación del curso Tarea Sin metodología Metodología Material de estudio 2 meses 2 meses (guía) División de la guía 8 horas 3 horas (Formato) Búsqueda de recursos 5 horas 3 horas Autoría del material (Licencia Creative 2 horas 1 horas Commons) Empaquetamiento ----30 minutos Subida del material 1 horas 10 minutos Creación de páginas con contenido (estructura del 6 horas 2 horas curso) Publicación del curso 30 minutos 30 minutos 2 meses con tres 2 meses con Tiempo aproximado días 1.5 días Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Producción de Cursos Educativos Abiertos con Herramientas Sociales _________________________________________________________________________________________________________________________ puede efectuar con un 50 % de tiempo menos que significaría un tiempo a favor de las personas encargadas del proceso de publicación, es decir que si antes subían un curso en ese tiempo, ahora lograrían subir dos cursos al sitio OCW de la universidad porque todas las tareas que implican la subida del material estarán reducidas a la mitad. 99 Producir nuevos recursos OCW siguiendo el ciclo propuesto REACS en instituciones de Educación Superior. Adaptar el uso de herramientas y plataformas que se sugieren en el ciclo de producción de REACS de acuerdo a las políticas institucionales. Desarrollar un software que implementación de REACS. 6. CONCLUSIONES Y TRABAJOS FUTUROS Los OCW constituyen un medio por el cual las Universidades ponen a disposición materiales gratuitos creados por sus docentes con el objetivo de brindar acceso abierto al conocimiento; los cuales sirven como material complementario para sus estudiantes y por su naturaleza de abiertos constituyen un complemento para el aprendizaje de otras personas como parte de su formación continua. A partir de la investigación realizada sobre los diferentes sitios OCW de las universidades se recopiló información necesaria que permitió encontrar diferentes componentes que forman parte de un curso OCW para plasmarlo en una plantilla, que al final se utilizó para describir la estructura y contenido de un curso. En base a la búsqueda y análisis de los diferentes modelos de diseño instruccional se optó por utilizar la metodología REACS (Recursos Educativos con Componentes Sociales) que está basada en el modelo instruccional ADDIE, incorporando un componente social en cada una de ellas, la misma que permite mejorar los tiempos de producción de un curso OCW. REACS está basado en el modelo de diseño instruccional ADDIE el cual exige componentes de valoración y calidad propios del contexto Educativo. Con el uso de esta metodología se pretende facilitar el proceso de producción de los cursos OCW poniendo énfasis en la utilización de herramientas colaborativas que posibilitan la inteligencia colectiva y así mismo impulsa a los docentes de la universidad a que incursionen en este tipo de proyectos que ayudan tanto a las personas que lo elaboran como a los usuarios (estudiantes) que lo utilizan. De acuerdo a la comparación realizada sobre los tiempos empleados en la producción de los cursos, se obtuvieron como resultados preliminares, que el uso de una metodología es eficiente ayudando a las personas encargadas del proceso de creación y publicación a disminuir el tiempo en un 50 %; esto es gracias al desarrollo colectivo y la sinergia que existe entre las personas que conforman el equipo de trabajo. El éxito de la aplicación del Modelo depende del contexto institucional en el que se implemente, así como de las políticas referentes a generación de contenidos, reconocimiento de autores y difusión de los recursos. apoye en la RECONOCIMIENTO Este trabajo se ha desarrollado parcialmente gracias al financiamiento de SENESCYT del Ecuador y de la Universidad Técnica Particular de Loja. REFERENCIAS Arimoto, M., & Barbosa, E. (2012). A systematic review of methods for developing open educational resources. 20th International Conference on Computers in Education (ICCE). Singapore. Borrás, O. (2010). Observatorio de Plataformas para OCW, Universidad Politecnica de Madrid. Obtenido de http://ocw.upm.es/documentacion/estudio-utilizacion-deplataformas-paraopencourseware-2010 Centro de Nuevas Iniciativas. (2008). El conocimiento libre y los recursos educativos abiertos. España: Junta de Extremadura. Cueva, S. P., Rodríguez, G., & Romero, A. (2010). OER's production cycle with social authorship and semantic tools. IEEE Education Engineering (EDUCON) (págs. 121-128). Madrid: IEEExplore. Forum on the Impact of OpenCourseWare for Higher Education in Developing Countries Final report. (2002). Obtenido de htttp://unesdoc.unesco.or/images/0012/001285/12851e.pdf Kirkpatrick, D., & Kirkpatrick, J. (2006). Evaluating Training Programs: The Four Levels. Berrett-Koehler Publishers. Más allá de los contenidos: compartiendo el diseño de los recursos educativos abiertos. (2007). Revista de Universidad y Sociedad del Conocimiento, 4(1), 26-35. Riera, B., Martí, C., Colares, J., Ordinas, C., Torrandell, I., & Montilla, X. P. (2000). Procesos de diseño de materiales educativos multimedia. II Jornadas Multimedia Educativo. Barcelona. Rodríguez, G., Cueva, S., Feijoo, L., & Marbán, Ó. (2014). Implementation of social technologies for Open Course Ware OCW platforms. 9th Iberian Conference on Information Systems and Technologies (CISTI). Barcelona. Rojas, C., & Cueva, S. (2014). Creación de Recursos Educativos Abiertos con Herramientas Colaborativas. Loja: UTPL. Triola, M. (2012). Elementary Statistics. Pearson. Varlamis, I., & Apostolakis, I. (2006). The Present and Future of Standards for E-Learning Technologies. Interdisciplinary Journal of Knowledge and Learning Objects, 2, 59-72. Velarde, M., Lozano, F., & Ramírez, M. (2009). Aportes para la generación de un modelo operativo innovador de Open Course Ware (OCW). IV Congreso Nacional de Posgrados en Educación. Guanajuato. Como trabajos futuros se pueden considerar a: Revista Politécnica - Marzo 2016, Vol. 37, No. 2 An approximation to Household Overcrowding: Evidence from Ecuador _________________________________________________________________________________________________________________________ 100 An approximation to Household Overcrowding: Evidence from Ecuador Díaz Juan Pablo1; Romaní Javier2 1Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador 2 Universidad de Barcelona, Facultad de Economía y Empresa, Barcelona, España Abstract: This paper addresses the household overcrowding problem. To do so, a binary choice model with logit specification is constructed. The cross section data used in the empirical analysis comes from Ecuador which is a developing South American country. Although, household overcrowding has more incidence in developing countries, it also takes place in developed economies. The findings of the research suggest that a set of variables related to the head of the household like his/her gender, age, and level of education affect the probability of being under overcrowding situation in the household. Furthermore, the regime of tenancy under which the household is living in the dwelling also influences the probability of being in overcrowding situation. Key words: Ecuador, household overcrowding, crowding, logit modelling. Una aproximación al Hacinamiento de Hogares: Evidencia del Ecuador Resumen: En este trabajo se aborda el problema de hacinamiento de los hogares. Para ello, un modelo de elección binaria con especificación logit es construido. Los datos de corte transversal utilizadas en el análisis empírico proviene de Ecuador, que es un país en desarrollo de América del Sur. Aunque, el hacinamiento de los hogares tiene más incidencia en los países en desarrollo, también tiene lugar en las economías desarrolladas. Los resultados de la investigación sugieren que un conjunto de variables relacionadas con el jefe de la familia como su sexo, edad y nivel de educación afecta a la probabilidad de estar en situación de hacinamiento en el hogar. Por otra parte, el régimen de tenencia en las que la familia está viviendo en la vivienda también influye en la probabilidad de estar en situación de hacinamiento. Palabras clave: Ecuador, hacinamiento de los hogares, modelación logit. 1 1. INTRODUCTION The concern in the high levels of population density had its boom during the 60’s and 70’s. Obviously, the idea was to study not only its causes but also its effects. Indeed, as Baldassare (1978) proved, a large number of factors led to believe to a substantial part of the scientific community and most of the general population that a high level of density, in terms of people, has serious detrimental effects on humans. The majority of these studies focused on the effects of high levels of people density on human behavior. From these studies, it was clear that it was necessary to distinguish between density at the level of macro-environment (people per hectare, for example) and crowding in the microenvironment, such as crowding in home (Carnahan et al., 1974; Galle and Gove, 1978). Recently, it seems like the interest in the high levels of density of people has come back. For example Marx and Stoker (2013), referring to slums, which are informal [email protected] settlements in and around cities in the developing countries, estimates that 450 million new housing units would be needed in the next 20 years just for accommodating households in urgent need of housing due to the increase of migrants to the existing slum populations. Said so, it is clear that there is a strong correlation between poverty and high density of people in the house. Indeed, one of the most used methodologies for measuring poverty, especially in Latin America, the Unsatisfied Basic Needs (UBNS) method uses as an indicator for determining a poverty situation the fact that there are more than three people per room in the house. In this paper, authors focus on the household crowding. According to Lawton (1961), household crowding is a difficult concept to express since acceptable standards of intensity of household occupancy vary from time to time, from place to place and as between social classes. Moreover, indices of crowding can be selected from a variety of census data, including the number of people, the number of rooms, the number of households and the number of dwellings of various sizes. The most extended index for approaching to household crowding is the people per room measure: a Revista Politécnica - Marzo 2016, Vol. 37, No. 2 101 Díaz Juan Pablo1; Romaní Javier2 _______________________________________________________________________________________________________________________________ household is considered in a crowding situation if there are more than three people per bedroom; however, this index presents limitations as a measure of intense of occupancy since it does not take into account the size of the household (for example, a household formed by 10 people and 5 rooms is not ¨crowded,¨ meanwhile a household formed by 3 people and 1 room is) neither their particular needs which lead to a collective generalization. Despite these inconveniences, this measure of crowding gives us an idea about the particularities of the household and the society. This paper is composed as follows; first, it is presented a review of the literature about the household crowding. Secondly, the methodology that is used in the empirical analysis is presented, basically binary choice models. Then, it is shown an empirical analysis using cross section data about the probability of being in a household crowding situation. The condition that tells us if a household is in a crowding situation is if there are more than three people per bedroom in the household. The data is from Ecuador which is a developing country located in the North West part of South America. After that, it is discussed the results obtained in the estimates. Finally, some conclusions are presented. 2. LITERATURE REVIEW In general terms, there are several factors that contribute to the household crowding. First, there is the demographic factor which is basically represented by the vegetative population growth rate and migrations. Second, the physical factors of the dwelling and its environment. Finally, the social factor also plays an important role. As physical factors of the house one can point out the design of the dwelling, the habitability of the construction, the sanitary situation, conditions of the settlement place and the physical channels of social integration like roads, nearly schools and so on. The social factor refers to the housing density and tenancy regime. The housing density is the relationship between the number of people and the available space. As a matter of fact, the housing density becomes crowding when this relationship between people and available space exceeds a tolerable limit. On the other hand, the tenancy regime is related to the condition of ownership for the people living in a certain house like owner, renter, usurper or borrower (Puga, 1983). It is important to mention that there are several approaches to measure crowding. For example, people per bed, people per bedroom, families per dwelling, and dwellings per piece of land (Iglesias de Usel, 1993). Another indicator for measuring the intensive usage of the space is the quantity of square meters per person. It is important to say this because authors want to point out that there is not a unique form to define crowding. Indeed, the threshold from which it can be considered an intensive usage of the space varies according to the level of development of societies, cultural and historical realities. The theoretical literature on the consequences of crowding on individuals basically focuses on physical and psychological repercussions. About the physical effects, crowding could be a determinant factor for illness propagation not only in developing countries, but also in the developed ones. For instance, Baker et al. (2008) proved that Tuberculosis incidence in New Zealand is associated with household crowding. Moreover, an alarming fact about the crowding is that it especially affects children in their growing-up and development processes. Furthermore, according to Iglesias de Usel (1993) and Puga (1983) there are causal relationships between crowding and low test score performing and high juvenile crime rate. Regarding the psychological effects researchers have determined two main alterations in crowding situations: lack of privacy and easiness of circulation (Lentini, 1997). Regarding the privacy, it is clear that it is a required good for a person, for couples (father-mother), for gender separation, for the family as an independent social unity and for certain family activities such as sleeping, studying, etc. About the easiness of circulation, it allows the normal fulfillment of the family functions by avoiding the interferences to the freedom of circulation or the unexpected intrusions. The lack of both, privacy and easiness of circulation, creates an environment in which the members of the household may be exposed to higher levels of psychological stress than those who are not living under this condition. Until now, it has been said that there are at least two main dimensions that help us to understand crowding in households: number of individuals in the household and the dwelling itself. Regarding the number of individuals compounding a household, there are a great number of published papers that contributes to understand the size of the household. For example, Bongaarts (2001) published a study that uses data from household surveys in 43 developing countries to describe the main dimensions of household size and their composition in the developing world. He found that the average household size varies only modestly among regions, ranging from 5.6 in the Near East/North Africa to 4.8 in Latin America. These averages are similar to levels observed in the second half of the nineteenth century in Europe and North America. Moreover, he observed that about four out of five members of the household are part of the nuclear family of the head of the household. In addition, Bongaarts suggests that household size is found to be positively associated with the level of fertility and the mean age at marriage, and inversely associated with the level of marital disruption. An analysis of trends and differentials in household size suggests that convergence to smaller and predominantly nuclear households is proceeding slowly in contemporary developing countries. Regarding the associated effects of the size of the household, Lanjouw and Ravallion (1995) point out that there is considerable evidence of a strong negative correlation between household size and consumption (or income) per person in developing countries. It is often concluded that people living in larger and (generally) younger households are typically poorer. There has been much debate on which is the 'cause' and which is the 'effect' in this correlation. The position one takes in this debate can have implications for policy, including the role of population policy in development, and the scope for fighting poverty using demographically contingent transfers. In addition, they Revista Politécnica - Marzo 2016, Vol. 37, No. 2 An approximation to Household Overcrowding: Evidence from Ecuador _________________________________________________________________________________________________________________________ suggest that the existence of size economies in household consumption cautions against concluding that larger families tend to be poorer. The poor tend to devote a high share of their budget to rival goods such as food. But certain goods (water taps, cooking utensils, firewood, clothing, and housing) do allow possibilities for sharing or bulk purchase such that the cost per person of a given standard of living is lower when individuals live together than apart. About the variables explaining the size of the households, one can found studies that use, for example, demographic variables. That is the case of Burch (1970) who investigates the influence of demographic variables (viz., mortality, fertility, age at marriage) on average household size under different family systems-nuclear, extended and stem. His study suggests that under all family systems, average household size is positively correlated with fertility, life expectancy, and average age at marriage. Households under nuclear and stem family systems never exceed 10 persons on average. By contrast, under extended family systems, when mortality is low and fertility is high, average household size reaches levels seldom if ever observed in reality, e.g., 25 persons per household. Large households under the extended family system also tend to be fairly complex, often containing 5 or more adults. A number of modifications in the model would make for greater fit between model and real family systems. A more fruitful approach would involve the simulation of household formation and development. With respect to the types or forms of household crowding, as it has been said above, there is not a unique unit of measure for it. However, the most extended measure is the people per room. Despite of its limitations, which are basically not considering the size of the household neither their specific needs, it is helpful to draw an aggregate picture of the phenomenon. In that sense, Lentini (1997) categorizes as semi-critical crowding when there are more than two people per bedroom and as critical crowding when there are more than three people per bedroom. 3. METHODOLOGY Authors will use the framework of the binary choice models for our empirical analysis. According to Verbeek (2004), binary choice models (or univariate dichotomous models) are designed to model the ‘choice’ between two discrete alternatives. These models essentially describe the probability that yi = 1directly. In general, Equation (1): 𝑃{𝑣𝑖 = 1⎸𝑥𝑖 } = 𝐺(𝑥𝑖 , 𝛽) (1) for some function G(.). This equation says that the probability of having yi = 1 depends on the vector xi containing individual characteristics. So, just for giving an example, the probability that a household is in a crowding situation depends on its income, head-of-the-house education level, age and marital status. Clearly, the function G(.) should take values in the interval [0, 1] only. Usually, one restricts attention to functions of the form G(xi,β) = F(x´iβ). As F(.) also has to be between 0 and 1, it seems natural to choose F 102 to be some distribution function. Common choices are the standard normal distribution function, Equation (2): w 𝐹(𝑤) = φ(w) = ∫−∞ 1 1 √2π exp {− t 2 } dt 2 (2) Leading to the probit model, and the standard logistic distribution function, given by Equation (3): 𝑒𝑤 𝐹(𝑤) = 𝐿(𝑤) = 1+𝑒 𝑤 (3) Which results in the logit model. There is also a third option besides the probit and logit models, the linear probability model; however, the logit and probit are more common in applied work. Both, a standard normal and a standard logistic random variable have an expectation of zero, while the linear probability has a variance of π2/3 instead of 1. These two distribution functions are very similar if one corrects for this difference in scaling; the logistic distribution has slightly heavier tails. Indeed, the probit and logit models typically yield very similar results in empirical work. Moreover, apart from their signs, the coefficients in these binary choice models are not easy to interpret directly. Regarding the estimation and always according to Verbeek (2004), in general, the likelihood contribution of observation i with yi= 1 is given by P{yi= 1|xi} as a function of the unknown parameter vector β, and similarly for yi= 0. The likelihood function for the entire sample is thus given by Equation (4): 𝑦𝑖 1−𝑦𝑖 𝐿(𝛽) = ∏𝑁 𝑖=1 𝑃{𝑦𝑖 = 1 |𝑥𝑖 ; 𝛽} 𝑃{𝑦𝑖 = 0|𝑥𝑖 ; 𝛽} (4) Where β is included in the Equations for the probabilities to stress that the likelihood function is a function of β. It is preferred to work with the loglikelihood function. Substituting P{yi= 1|xi ; β} = F(x´iβ), as seen Equation (5): ′ 𝑁 ′ log 𝐿(𝛽) = ∑𝑁 𝑖=1 𝑦𝑖 log 𝐹(𝑥𝑖 𝛽) + ∑𝑖=1(1 − 𝑦𝑖 ) log(1 − 𝐹(𝑥𝑖 𝛽)) (5) Substituting the appropriate form for F gives an Equation that can be maximized with respect to β. As previously said, the values of β and their interpretation depend upon the distribution function that is chosen. Consequently, let`s consider the first order conditions of the maximum likelihood problem. Differentiating the previous equation with respect to β yields, Equation (6): 𝛿𝑙𝑜𝑔 𝐿(𝛽) 𝛿𝛽 = ∑𝑁 𝑖=1 [ 𝑦𝑖 −𝐹(𝑥𝑖′ 𝛽) ′ 𝐹(𝑥𝑖 𝛽)(1−𝐹(𝑥𝑖′ 𝛽)) 𝑓(𝑥𝑖′ 𝛽)] 𝑥𝑖 = 0 (6) Where f = F´ is the derivative of the distribution function (so f is the density function).The term in square brackets is often referred to as the generalized residual of the model. It equals f(x’iβ)/F(x’iβ) for the positive observations (yi= 1) and - Revista Politécnica - Marzo 2016, Vol. 37, No. 2 103 Díaz Juan Pablo1; Romaní Javier2 _______________________________________________________________________________________________________________________________ f(x’iβ)/(1 − F(x’iβ)) for the zero observations (yi= 0). The first order conditions thus say that each explanatory variable should be orthogonal to the generalized residual (over the whole sample). This is comparable to the OLS first order conditions which state that the least squares residuals are orthogonal to each variable in xi. For the logit model, one can simplify the Equation in (7) to 𝛿𝑙𝑜𝑔 𝐿(𝛽) 𝛿𝛽 = ∑𝑁 𝑖=1 [𝑦𝑖 − exp(𝑥𝑖′ 𝛽) ] 𝑥𝑖 = 0 1+exp(𝑥𝑖′ 𝛽) (7) Furthermore, for the probit model 𝛿ln{𝐿(𝛽)} 𝛿𝛽 ∑𝑦 =1 𝜆1𝑖 𝑥𝑖 𝑖 = ∑𝑦𝑖 =0 −𝜑𝑖 1−𝛷𝑖 𝑥𝑖 + ∑𝑦𝑖 =1 𝑞𝑖 𝜑(𝑞𝑖𝑥′𝑖𝛽) = ∑𝑛𝑖=1 ( 𝛷(𝑞𝑖𝑥′𝑖𝛽) ) 𝑥𝑖 𝜑𝑖 𝑥 𝛷𝑖 𝑖 = ∑𝑦𝑖 =0 𝜆0𝑖 𝑥𝑖 + = ∑𝑛𝑖=1 𝜆𝑖 𝑥𝑖 = 0; (8) With qi=2yi – 1. The solution of the Equation in (8) is the maximum likelihood estimator 𝛽̂ . From this estimate, it is possible to estimate the probability that yi= 1 for a given xi as seen Equation (9): 𝑝̂𝑖 = exp(𝑥𝑖′ 𝛽) 1+exp(𝑥𝑖′ 𝛽) ;𝑖 = 1…𝑛 (9) Consequently, the first order conditions for the logit model imply that, Equation (10): ∑𝑁 ̂𝑖 𝑥𝑖 = ∑𝑁 𝑖=1 𝑝 𝑖=1 𝑦𝑖 𝑥𝑖 (10) Thus, if xi contains a constant term (and there is no reason why it should not), then the sum of the estimated probabilities is equal to ∑iyi or the number of observations in the sample for which yi= 1. In other words, the predicted frequency is equal to the actual frequency. Similarly, if xi includes a dummy variable, say 1 for females, 0 for males, then the predicted frequency will be equal to the actual frequency for each gender group. Although a similar result does not hold exactly for the probit model, it does hold approximately by virtue of the similarity of the logit and probit model. Taking into account that in the empirical work both, logit and probit specifications yields similar results, in this paper, authors will use the logit specification; however, this does not mean that the probit specification does not present also good estimations. Data and variables. Data from the Survey of Conditions of Life (Encuesta de Condiciones de Vida) from Ecuador (INEC, 2006) is used that provides information of 13.536 households in Ecuador for our empirical analysis. The objectives of this survey were to measure the impact of the macroeconomic adjust policies and the social compensation on the households, to create monetary and non-monetary measures about the welfare distribution and the level of poorness of the households, to generate an actualized base line and useful to measure the accomplishment of the Millennium Development Goals and Objectives, and to simplify the formulation of public policies that tend to reduce the levels of poorness of the population. Authors will use the information of the fifth round of the survey which collected the information between November 2005 and October 2006. Considering the 13.536 households that provided information, 8.028 of them are located in an urban area which represents the 59% of the sample; meanwhile, the remaining 5.508 households were from rural areas which represent the 41% of the sample. In addition, the information was collected from 1128 census sectors in where 12 households per sector supplied information (12 x 1128 = 13.536). It covers all the provinces of the Ecuadorean continental territory. It is important to mention that this survey is a postdollarization instrument. Briefly speaking, Ecuador had a severe economic crisis in 1998 that led to an emigration wave that, according estimations, caused millions of Ecuadoreans to leave their country. As a policy of stabilization, dollarization of the economy was implemented in 2000, which brought a stable economic scenario (Acosta, 2012). Once the methodology and the data source have been defined, it is time to define the condition under which a household can be considered overcrowded or not for our empirical analysis. According to CEPAL (2001) (Comisión Económica para América Latina y el Caribe) and several other authors like Lentini (1997), authors will characterize overcrowding as it is done in most extended and accepted measure, meaning that a household will be overcrowded if there are more than three people per bedroom. On the other hand, a household will not be crowded if this condition is not fulfilled. Since the condition is reflected in the output variable yi of the binary logit model, it will take the value of 1 if the overcrowding condition is fulfilled (in other words, if the household is crowded, then yi=1); otherwise, the dependent variable takes the value of 0 if the crowding condition is not fulfilled (yi=0). By doing so, it is obtained that the 58.1% of the sample (7897 observations) fulfill the overcrowding condition and the 41.9% do not (5684 observations). Considering the information available in the data base and the literature reviewed, it is included in the model specification several explanatory variables that are supported in previous researches. In that sense, a set of independent variables that collects information of the head of the household is included. The idea behind these inclusions is to characterize the person who runs the household and, if it is possible, suggest public policies that contribute to overcome the overcrowding condition. Considering the head of the household as the core unit in the analysis of overcrowding is an extended practice in the applied work as it is showed in Bongaarts (2001). Furthermore, since Puga (1983) proved that the regime of tenancy of the dwelling is a vital dimension in the household overcrowding as a social factor, authors also include a variable that collects this information. Additionally, a variable that presents information of the Revista Politécnica - Marzo 2016, Vol. 37, No. 2 An approximation to Household Overcrowding: Evidence from Ecuador _________________________________________________________________________________________________________________________ settlement place, which in Puga (1983) called as physical factor, is included in the estimation. Then, the estimation of the probability that model is given by Equation (11): 𝑃𝑟𝑜𝑏(𝑌𝑖 = 1) = 𝑒𝑧 1+ 𝑒 𝑧 for the logit (11) where: 𝑧 = 𝛽0 + 𝛽1 𝐴𝑟𝑒𝑎𝑖 + 𝛽2 𝐺𝑒𝑛𝑑𝑒𝑟𝑖 + 𝛽3 𝐴𝑔𝑒𝑖 + 𝛽4 𝐴𝑔𝑒𝑆𝑞𝑖 +𝛽5 𝐸𝑑𝑢𝑐𝑖 + 𝛽6 𝐸𝑡ℎ𝑛𝑖𝑐𝑖 + 𝛽7 𝐻𝐷𝐵𝑖 + 𝛽8 𝑇𝑒𝑛𝑎𝑛𝑐𝑦𝑖 For i = 1… 13.536. Where Yi is the dichotomous variable explained above; β0 is the constant term in the estimation; Area is a dummy variable for the area in which the household is located. It takes the value of 1 if the household is settled in the urban area or 0 otherwise. Fixing rural as the reference category, it is expected to get a negative sign in the estimated parameter since it is thought that a household located in the urban area has less probability of being overcrowded than a one with the same characteristics located in the country side; Gender is another dummy variable for the gender of the head of the household. It takes the value of 1 if the head of the household is a man or 0 in the case of being a woman. Fixing as reference category being a woman, the expected sign of the estimated parameter is negative since one could think that a household in which the head of the household is a man has less probability of being overcrowded than a household in which the head of the household is a woman under similar conditions. This assumption is supported in the well documented evidence in the literature that women have less income than men by doing the same job or having the same position as De Cabo (2007) proved, so it is expected that this could influence in the reduction of probability that a man as a head of the household being in an overcrowded situation compared to a woman; Age and AgeSq are the age and the aged squared of the head of the household. It is expected to get a positive sign in the first one and a negative sign in the estimation of these parameters. The idea behind this expectation is that as the head of the household gets older, the number of members of the household increases until a certain point in which the members start to leave the house meaning that the effect of the age on the probability of being overcrowded has an inverted u shape. On the other hand, if our expectation is wrong, that would suggest that the older the head of the household, the more the number of members in it. It would evidence that the other members of the household do not leave the house as the time passes but they bring new members to the home; Educ is the level of education of the head of the household. It is measured in years attended to formal education. Indeed, this variable works also as a proxy of the level of income of 104 the head of the household since it is well documented in the literature about the strong correlation between education and income; Ethnic is a categorical variable of the ethnic selfidentification of the head of the household. It is fixed as reference category ‘indigenous,’ so the other categories (mestizo2, white, black, mulato3 and other) will be compared to it. It is expected a negative sign in the parameters of the other categories which would suggest that the other ethnic groups have less probabilities of being in an overcrowded household than indigenous households. This expectation comes from the idea that indigenous historically have been socially segregated not only in Ecuador, but in the whole America which would result in the deterioration of their living conditions; HDB is a dummy variable that takes the value of 1 if the head of the household receives the Bono de Desarrollo Humano (rough translation: Human Development Bonus) or 0 otherwise. The Human Development Bonus is a direct cash transfer for poor families from the government. Fixing not receiving the cash transfer as category of reference, it is expected to get a positive sign in the estimated betha meaning that those households that receive the cash transfer have more probability of being in overcrowding situation; Tenancy is a categorical variable that describes the regime of tenancy under which the household is living there. The possible alternatives are: owned and fully paid, antichresis 4, owned and paying for it, leased, given, and received for services. By fixing as reference category the first named, it is expected a variety of signs in the estimated parameters such as a negative one in the own and paying for it option or a positive sign in the leasing option. If it is consider as crowding situation the fact that there are more than three people per room in the household, 29.8% households out of the total at a national level are overcrowded. As a matter of fact, 26.6% and 36.0% of the households are under crowding conditions in the urban and rural areas, respectively. Regarding the ethnic self-identification, when the head of the household self-identifies as indigenous, the 48.9% of the households in this category are under crowding conditions. This percentage is 27.9% of the total in mestizo households. Moreover, when the head of the household self-identifies as white, the 24.8% of the total of households in this category are under the crowding condition. Finally, when the head of the household self-identifies as black, the 38.8% out of the total of households in this category are under the crowding condition. As one can see, 2 It is the ethnic identification that results of the mix between white and indigenous. 3 It is the ethnic identification that results of the mix between white and black. 4 It is a contractual arrangement in which the owner of the house let the other contractual part to live in the house for paying a unique quota at the beginning of the contract lapse. Once the lapse of the contract is finished, the owner of the house gives back the entire initial quota to the “leaser.” Revista Politécnica - Marzo 2016, Vol. 37, No. 2 105 Díaz Juan Pablo1; Romaní Javier2 _______________________________________________________________________________________________________________________________ the shares of crowded households are especially higher in minority ethnic groups (indigenous and black). 4. RESULTS AND DISCUSSION The obtained results of the binary logit estimation are as follows in Table 1. Table 1. Results of the Model Variable β S.E. Constant 2556 .193 Wald Sig. 174722 .000 Exp(β) .078 Area(urban) .004 .044 .924 1004 Gender(man) .964 .051 360882 .000 2623 Age .152 .007 420605 .000 1164 Age2 -.002 .000 595317 .000 .998 Educ -.028 .004 40547 .000 .972 17664 .003 Ethnic(indigen) .009 Ethnic(mestizo) -.356 .094 14246 .000 .700 Ethnic(white) -.164 .068 5834 .016 .849 Ethnic(black) -.072 .119 .364 .547 .931 Ethnic(mulato) -.070 .136 .262 .609 .933 Ethnic(other) 1469 1133 1682 .195 4345 HDB(1) .302 .084 13031 .000 1353 Tenancy(ownfp) Regarding the variables Age and Age2, it is confirmed previous expectations. The first named has a positive sign and the second a negative one in their estimated parameters. Furthermore, they both are statistically significant at α = 1%. These results indicate that as the head of the household gets older, the number of members of the household increases until a certain point in which the members start to leave the house. Then, the effect of the age of the head of the household on the probability of being overcrowded has a concave shape; 181138 .000 Tenancy(antich) .271 .576 .221 .638 1311 Tenancy(ownpay) .247 .135 3359 .067 1281 Tenancy(leasing) -.627 .055 130263 .000 .534 Tenancy(given) -.431 .057 56745 .000 .650 Tenancy(receivedfs) -.671 .115 34118 .000 .511 In binary choice models, the estimated parameters do not have a direct interpretation. However, the signs of them do. Said so, first, it is important to say that our model includes a constant term with negative sign which is individual statistical significant at α = 1%; Although the variable Area has a positive sign in its estimated parameter, it is not individual statistical significant at any level. Consequently, one could assume that the location of the household, meaning being settled in the rural or urban areas, does not affect the probability of a household of being in overcrowding situation; The estimated parameter of the dummy variable Gender presents a positive sign and it is statistically significant at α = 1%. Taking into account that it has been set up being woman as reference category, this positive sign suggests that when the head of the household is a man, there is more probability of being overcrowded with respect to a woman; With respect to the variable Educ that represents the years of formal education attended by the head of the household, it has been gotten a negative sign in the estimated parameter of the variable which is statistically significant at α = 1%. It is confirmed our expectations that the more educated the head of the household, the less the probability of being in overcrowding situation. Indeed, as it has been previously said, the years of education also works as a proxy of the level of income; consequently, it can be induced that the more the level of income, the less the probability of being overcrowded in the household; Regarding the variable Ethnic, let’s remember that it represents the ethnic self-identification of the head of the household and it has been set up indigenous as reference category. The categories mestizo and white have negative signs in the estimated parameters and they are statistically significant at α = 1% and α = 5% respectively. This suggests that those households in which the head of the household self-identifies as mestizo or white have less probabilities of being overcrowded with respect to those ones who selfidentify as indigenous. The other categories (black, mulato and other) are not statistically significant at any level which means that they behave as the base category does; The dummy variable HDB presents a positive sign in the estimated parameter and it is statistically significant at α = 1%. Considering that it has been fixed as category of reference not receiving the government cash transfer, it implies that when the head of the household receives the cash transfer, there is more probable being in overcrowding condition than not receiving it; Finally, the regime of tenancy under which the household is living in the dwelling, represented in the variable tenancy and for which it has been set the category ‘owned and fully paid’ as reference, presents a variety of signs. First, the category ‘antichresis’ presents a positive sign, but it is not significant at any level. Probably, this category is not significant since only 17 observations out of the 13.581 in the sample are under this regime of tenancy. Secondly, the category ‘owned and paying for it’ presents a positive sign and it is significant at α = 10%. This means that when the household is paying for the dwelling has more probability of being in overcrowding situation than when the dwelling is fully paid. Thirdly, the leased, given and received for services categories have a negative sign in the estimated parameters and they are significant at α = 1%. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 An approximation to Household Overcrowding: Evidence from Ecuador _________________________________________________________________________________________________________________________ This indicates that when the household is leased or got the dwelling as given of for services, the probability of being overcrowded decreases compared to the ‘owned and fully paid’ category. Analyzing this category globally, when the dwelling is owned, fully paid or paying for it, the probability of being overcrowded increases. Our guest is that this happens because the young members of the household do not have enough financial independence when they form their family, so they stay with their parents leading to extended households especially in the poor. This social behavior is according to what Bongaarts (2001) found in his research in the sense that the lack of financial independence lead to extended households in terms of number of members in the household. 106 Now, let’s give a look to the classification table of the model, in Table 2. Regarding the value of the -2 Log likelihood when one considers the intercept and covariates, the estimation terminated at itineration 4 because parameter estimates change less than .001. This value of 16534.196 is considerably smaller than the one of 18465.075 obtained when only the intercept term is considered in the model. This diminishing in the -2 Log likelihood suggests that our variables contribute and give explanation power to the model. As a matter of fact, this guess is also verified due to the Akaike Information Criteria (AIC) which presents a decrease of 1914.879 when one considers the intercept and covariates with respect to only the intercept. Regarding the values of 13.3% and 17.8% obtained in the Cox & Snell and Nagelkerke R squares respectively, they can be consider quite acceptable since in this type of models the estimation is not based on maximizing the measure of goodness of fit like in the linear regression models. Table 2. Classification Table* 5. CONCLUSIONS Observed Predicted yi = 0 yi = 1 no overcrowded overcrowded no overcrowded 2461 3223 43.3 yi = 1 overcrowded 1128 6769 85.7 yi = 0 Percentage Correct Overall Percentage 68.0 *cut point 0.5. By observing the classification table, one can appreciate that our model presents 1128 false positives. The false positives are the ones that considering a probability of 50% (the cut value is .500) were classified incorrectly in the prediction of being in an overcrowding situation (Yi=1). In other words, the proportion of false positives, which is 32.9%, represents the proportion of incorrect cases in the prediction of the group of being in overcrowding situation Yi=1. On the other hand, the number of households classified as false negative is 3223. These households are the ones classified incorrectly in the set of the predictions of not being in an overcrowding situation Yi=0. However, globally, the model presents a 68% of correct predictions which, for a probabilistic binary choice model is quite good. Indeed, this percentage of correct predictions can be consider as a measure of goodness of fit without taking credit of the R squares discussed below, in Table 3. Table 3. Model Summary Criterion Intercept Only Intercept and Covariates -2 Log likelihood 18465.075 16534.196 AIC 18467.075 16552.196 Cox & Snell R Square .133 Nagelkerke R Square .178 It has been constructed a binary choice model with logit specification that allows to calculate the probability of being under overcrowding situation in the household considering as an overcrowded household in which there are more than three people per bedroom. Our empirical analysis, using data from Ecuador, indicates that a set of variables of the head of the household influence the probability of being in overcrowding situation. Particularly, it has been verified that the influence of the age of the household on the probability of being in overcrowding situation behaves as a concave function indicating that as the time passes the number of members in the household increases until certain point when it starts to decrease. In addition, it has been found that the regime of tenancy under which the household is living in the dwelling also affects the probability of being in an overcrowded household. Surprisingly, once the correct explanatory variables have been included in the model, our empirical analysis shows that there is no statistical significant evidence about the influence of the area, meaning being settled in the urban or rural side, on the probability of being in an overcrowded household. Additionally, our findings also could have public policy implications. In that sense, considering that it has been characterized the fact of being in overcrowding situation based on a set of variables related to the head of the household, public policies can be addressed to overcome this condition. For example, housing credit policies can be addressed to the head of the household at the age in which there is more probability of being in overcrowding situation which would lead to improve living conditions of the entire household. Moreover, housing credit policies would affect the regime of tenancy of the household which can turn out in an increasing of wealth and welfare in the household. Finally, this research opens the door for further studies. Considering the fact that in this paper authors have studied the factors that affect the probability of being in overcrowding situation in a developing country, afterwards one could study the dynamics of this social problem in developed countries and contrast the results, so structural Revista Politécnica - Marzo 2016, Vol. 37, No. 2 107 Díaz Juan Pablo1; Romaní Javier2 _______________________________________________________________________________________________________________________________ differences can be detected. Moreover, since now it is known what are the factors that contribute to increase the overcrowding probability, one could study the effects of it at a household level in further research then. REFERENCES Acosta, A (2012). Breve Historia Económica del Ecuador. Corporación Editora Nacional. Baker, M D. Das, K. Venugopal, and P. Howden-Chapman (2008). Tuberculosis Associated with Household Crowding in a Developed country. Journal Epidemiol Community Health 62. p.p. 715–721. Baldassare, M. (1978). Residential Crowding in Urban America. Berkeley: University of California Press. Bongaarts, John (2001). Household Size and Composition in the Developing World in the 1990s. Population Studies, Vol. 55, No. 3 p.p. 263-279. Burch, T. (1970). Some Demographic Determinants of Average Household Size: An Analytic Approach. Demography, Vol. 7, No. 1. p.p. 61-69. Carnahan D. et al. (1974). Urbanization, Population Density and Overcrowding: the Quality of Life in Urban America. Social Forces 53. p.p. 62-72 Comisión Económica para América Latina y el Caribe CEPAL (2001). El Método de las Necesidades Básicas Insatisfechas (NBI) y su aplicación para América Latina. Santiago de Chile. De Cabo, G. (2007). Diferencia y Discriminación Salarial por Razón de Sexo. Instituto de la Mujer. Madrid. Galle, O. and W. Gove. (1978). Overcrowding, Isolation and Human Behavior: Exploring the Extremes in Population Distribution. Karl Tauber and James Sweet (eds.). Social Demography. P.p. 95-132. Iglesias de Usel, J. (1993). Vivienda y Familia. In Garrido, L, Estrategias Familiares. Instituto Nacional de Estadísticas y Censos (2006). Encuesta de Condiciones de Vida. Lanjouw, P. and M. Ravallion (1995). Poverty and Household Size. The Economic Journal, Vol. 105, No. 433 p.p. 1415-1434 Lentini, M. (1997). El hacinamiento: La dimensión no visible del déficit habitacional. Boletin INVI 31. Volume 12. p.p. 23-32. Marx, B and T. Stroker (2013). The Economics of Slums in the Developing World. The Journal of Economic Perspectives. Vol. 27, No. 4. p.p. 187-210. Puga, J. (1983). Consecuencias sociales del déficit habitacional en los sectores urbanos de mínimo ingreso. In Donald, J Vivienda Social – Reflexiones y experiencias. Verbeek, M. (2004). A Guide to Modern Econometrics. 2nd. Ed. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 The Bad Business of Agriculture. A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador _________________________________________________________________________________________________________________________ 108 The Bad Business of Agriculture A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador Díaz Juan Pablo Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador. Universidad de Barcelona, Facultad de Economía y Empresa, Barcelona, España. Abstract: This research tries to identify a correlation relationship between agricultural added value share and the agricultural employment share. To do so, a correlation analysis using the Pearson´s Correlation Coefficient is carried out. It has been found that the less the share of the agricultural added value in the Ecuadorean economy, the more the share of the employment in the sector which supposes that Ecuadorian agricultural workers get relatively poorer with respect to the others sector workers as time passes. Keywords: Ecuador, agriculture, added value, employment share. El Mal Negocio de la Agricultura Un Análisis de Correlación entre el Porcentaje de Ocupados y el Porcentaje de Valor Agregado Agrícola en Ecuador Resumen: Esta investigación trata de identificar una relación de correlación entre el porcentaje de valor agregado que representa el sector agrícola en la economía ecuatoriana y el porcentaje de personas ocupadas en este sector. Para esto, se utiliza el coeficiente de correlación de Pearson. Los resultados indican que mientras menor es el porcentaje de generación de valor agregado agrícola en la economía ecuatoriana, mayor es el número de personas que se involucra en esta actividad económica lo que significa que los trabajadores agrícolas se vuelven relativamente más pobres con respecto a los trabajadores de otros sectores de la economía con el devenir del tiempo. Palabras clave: Ecuador, agricultura, valor agregado, participación del empleo. 1. INTRODUCTION1 Consequently, all first-sector activities have demanded less labor as time passes. Every national economy is composed by three economic sectors. The primary sector is the one that includes activities closely related to the use of natural resources. Agriculture, forestry and cattle raising are some examples of economic activities in this sector. The secondary economic sector is the one in which commodities are transformed in other goods. All the manufacture activities are enclosed in the secondary sector. Finally, all services, such as commerce, that are provided within an economy are represented in the third sector. In the last decades, secondary and third sector have increased their share in the national economies all around the world; meanwhile, primary sector has decreased. Consequently, primary-sector economic activities, like agriculture, have become less attractive for businessmen since they have expected to make more money in the other two sectors. [email protected] In the case of developed countries, first-sector economic activities are less attractive for making money, so less people get employed in these activities which leads to a decreasing first-sector labor demand tendency during last decades. This phenomenon is particularly interesting in the case of agriculture. As a matter of fact, around 2% of economically active population is employed in agriculture in developed countries. Furthermore, the modernization of the agriculture also has contributed to demand less labor in the first world. However, it could be possible that the dynamics of developed countries do not apply in the developing ones. This idea comes from the fact that the share of workers involved in agriculture is greater than 10% (for 2014) in developing economies. Bearing in mind previous lines, this paper tries how the agricultural business is going in the world. To do so, Ecuador has be considered analysis. In the following pages, reader can find Revista Politécnica - Marzo 2016, Vol. 37, No. 2 to identify developing as unit of a short but 109 Díaz Juan Pablo1 _______________________________________________________________________________________________________________________________ precise literature review about the agriculture topic. Then, the methodology of our analysis is presented. After that, the results and the conclusions are presented this year was 7,8 % and the added value growth rate was 5,2 %. Finally, the countries in where the agricultural added value decreased although the economy in general increase were classified in group three. 2. LITERATURE REVIEW In order to study how the agriculture in Ecuador is going, it is planned to contrast the behavior of the employed workers rate in the agriculture sector and the variation of the agriculture added value contribution in the Gross Domestic Product in Ecuador. Properly said, it is wanted to know what happens with the agriculture added value share in the Ecuadorean economy when the proportion of the employees in this sector increases. From an historical point of view, the Ecuadorean economy in particular, and the Latin American economies in general, has followed an agro-export and monoculture model. Even now, according to García Trujillo et al (1993) quoted in Machado (2004), developing countries devote 20% of their lands in order to produce their own food and the other 80% is for export production. In the middle of the 80’s, ECLAC (1985) indicated that the Green Revolution has fertile land in Latin America since the countries of this region had the need of increasing their productivity in the short-run for incorporate their production in the global economy. However, not all the products of the Latin American countries were demanded in the global markets, but just some of them. This pushed to the monoculture specialization of Latin American countries. Furthermore, modernization of the rural Latin America brought scientific and technologic dependence of the advanced economies (Guerra, 1985; Palacios, 1998; Iglesias, 1999 quoted in Machado 2004). When the agriculture land owners that could assimilate the modernization were the only ones able to develop, farmer economy became disarticulated. The changes in the land tenancy structure brought significant social differentiations between medium and great producers with respect to the small ones. Furthermore, the proletarianization of the farmer sector took place (Donizete and Thomas, 2002 quoted in Machado 2004). According to ECLAC2 (2014), the volume of agricultural added value in Latin America increased 2,7% which is less than the 4,3% of the Gross Domestic Product (GDP) growth in 2011. In such a sense, ECLAC classifies the Latin American and Caribbean countries in three groups according to their performance in the agricultural sector. Consequently, the first group, in which the countries with higher performance in the agricultural activity were identified, was composed by Chile, Jamaica, Bahamas, San Cristobal y Nieves, Honduras, Dominican Republic, Granada and Brazil. In the second group of countries, the growth of the agricultural added value was positive but less than the global GDP. In this group, countries like Ecuador, Uruguay, Surinam, Peru, Paraguay, Venezuela, Guatemala, Bolivia, Nicaragua, Colombia, Costa Rica and Guyana were classified. In the case of Ecuador. The GDP growth rate for 2 Economic Commission for Latin America and the Caribbean. Our curiosity came from the previous paragraph. Indeed, authors started to wonder if this increase in the agricultural added value, especially in the first two groups of countries meant a significant improvement in the working and living conditions of the agricultural labor. To be more specific, I decided to reduce my unit of analysis, then I choose Ecuador as case of study for verifying the degree of correlation, not causality, between added value share and agriculture labor share in this country. 3. METODOLOGY In order to perform the analysis, it is appropriate to use the so-called Pearson´s Linear Correlation Coefficient which is widely used in order to verify the possible association between two variables. In the case of quantitative data, this instrument allows to get information about what happens with the values of a variable –if they increase or decreasewhile the other variable increases. Another possibility is that there is no relationship at all between variables. However, it is important to remark that this correlation coefficient does not necessarily provide a causality relationship between both variables but the degree of relationship between them. The Pearson´s coefficient (r) measures the degree of association between any two variables (x and y) and it can be calculated as the result of the covariance of the two variables divided for the multiplication of the standard deviations of the two variables, as seen Equation (1) 𝑟𝑥,𝑦 = 𝜗𝑥𝑦 𝜗𝑥 𝜗𝑦 (1) For any pair of variables, the value of the r coefficient can take any value in the interval [-1, 1]. In the case that r = -1, it is said that there is a perfect negative linear relationship between both variables. On the other hand, if r = 1, then there is a perfect positive linear relationship between both variables. Finally, if r = 0, there is no linear relationship between both variables at all. Basically, two use two time series variables for Ecuador are going to be used in the period 1990-2012: Added value of the agriculture sector as percentage of the Gross Domestic Product (ADDEDVAL_AGRIC); and, People employed in the agricultural sector as percentage out of the total of workers (TOTAL_AGRIC). Moreover, it could defined another two employment subvariables in order to have a gender approximation. First, it is Revista Politécnica - Marzo 2016, Vol. 37, No. 2 The Bad Business of Agriculture. A Correlation Analysis on Employment Share and Agriculture Added Value Share in Ecuador _________________________________________________________________________________________________________________________ possible to define a variable that represents the number of women employed in agriculture sector as percentage out of the female employment (WOMEN_AGRIC). In the same way, it can defined other variable that captures men employed in agriculture sector as percentage out of the male employment in the Ecuadorean economy (MEN_AGRIC). Then, it is possible to calculate the Pearson’s correlation coefficient of all the employment series with the agriculture added value share. The data base that is going to be used in this study comes from the World Development Indicators (WDI) of the World Bank. Furthermore, our unit of analysis is going to be Ecuador. The time series are from 1900 to 2012. Data for the year 2002 is not available for the employment share variables; consequently, the information of this year is not taken into account in the correlation analysis. 4. RESULTS AND DISCUSSION First, let’s give a look to the evolution of the series in time: 36 Rate 32 28 110 million to 9.1 million of inhabitants between 1995 and 2000 (UNICEF w/d quoted in Acosta 2012). By looking at Figure 1, one can notice that it is in this lapse of time when the number of people enrolled in agriculture increases exponentially. A first idea that can be taken until this point is that when the economy is going good, the agriculture sector is not attractive for workers. This can be given by the fact that wages in rural areas are less competitive than in cities. However, when workers have no job opportunities in cities they look back to the agriculture as a live vest. In addition, it is important to mention that the rates of employment in agriculture (total, men and women) could have been even greater after the economic crisis, but hundreds of thousands of Ecuadoreans in working age emigrated from their country in order to get a job overseas (especially in Spain, United States, and Italy). Indeed, Jokisch (2002) demonstrate empirically that that considerable labor loss and capital infusion have not significantly altered household cultivation patterns. He found that land use and agricultural production of international migrant households is not significantly different from nonmigrant households or households engaged in domestic circulation. This suggest that the remittances send by the emigrants are not used for improve agricultural habits nor invest in technology for the sector. 24 Coming back to our correlation analysis, once the Pearson´s correlation coefficient has been applied to our pairs of variables, the following results are obtained: 20 16 12 Table 1. Pearson’s Correlation Coefficients 8 4 Year 0 90 92 94 96 98 00 WOMEN_AGRIC ADDEDVAL_AGRIC 02 04 06 08 10 12 MEN_AGRIC TOTAL_AGRIC Figure 1. Evolution of the Agricultural Added Value Share and Employment Share series It is important to notice that the agriculture added value as percentage of the Gross Domestic Product (GDP) has a negative slope in the whole period; however, when the Ecuadorean 1998-1999 crisis took place, the participation of the agriculture in the economy tends to decay faster. On contrary, when the crisis took place, the share of workers in the sector tend to increase. In order to understand this crisis, it is possible to say that the drop of the Ecuadorean total GDP was 31% between 1998 and 2000 measured in US dollars; furthermore, Ecuadorean currency had a devaluation of 216%, an inflation rate of 52%, a diminishing of the real wage of 23%, and outflows of private capitals equivalent to 15% of the GDP (Acosta, 2012). Going back to the analysis of our series, it can give us the idea that the Ecuadorean agriculture sector is like a “sponge” that absorbs workers when they lose their jobs in the other economic sectors, especially when crises appear. It is interesting to point out that it seems very reliable the fact the agriculture is a business in charge of the poor in Ecuador. Indeed, the number of poor got more than doubled from 3.9 Women_agric Men_agric Total_agric Addedval_agric -0.888368 -0.902461 -0.897111 The previous Table 1 shows the core of our analysis. It can appreciated the correlation coefficients (r values) between the agriculture added value as percentage of the GDP and the women employed in agriculture as percentage of the female employment (WOMEN_AGRIC), men employed in agriculture as percentage of the male employment (MEN_AGRIC), and total population employed in agriculture as share of the total employed population (TOTAL_AGRIC), respectively in the column of values. As it is possible to see, all the correlations are negative and very near to the value of -1. This indicates that there is a negative correlation between the share of the agriculture as percentage of the GDP and the employment in the sector. In other words, the less the contribution of agriculture in the national wealthy, the more the labor involved in the activity. In the case of the r = -0.888368 indicates that the more women are working in the agriculture, the less the contribution of the agriculture in the generation of wealth in Ecuador. This relationship is even stronger for men where the r = -0.902461. This result suggest that when more men are getting involved in agriculture, the sector creates less wealth in comparison to the other economic activities. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 111 Díaz Juan Pablo1 _______________________________________________________________________________________________________________________________ 5. CONCLUSIONS ACKNOWLEDGMENT In this paper, it has been empirically shown that the smaller the contribution of the agricultural sector share to the Ecuadorean economy, the greater the number of workers enrolled in this activity. However, it is important to remark, again, that this relationship implies correlation but not causality. It has been found that even though more people get involved in the activity, less share of the national wealthy goes to these people. Given this negative relationship over time, agriculture activities could become a less attractive activity for workers and investors in Ecuador. Author is pleased to thank the support of Escuela Politécnica Nacional which is an institution committed to research in theoretical and applied fields. Additionally, author is grateful to the anonymous peer reviewers who gave pieces of advice that helped to improve the quality of this paper. Clearly, Ecuadorean agriculture employment dynamics are different from developed counties. Literature shows that when agriculture added value share decreases, employment share also decreases in developed countries; however, when the share of agricultural wealth creation decreases in Ecuador, it catches more employment. Our guess is that agriculture in Ecuador is not a business for making money, but a survival activity for Ecuadorean workers. Furthermore, this hypothesis is reinforced by the fact that when the Ecuadorean 1998-1999 economic crisis took place, more people get enrolled in the agriculture sector. Then, this economic activity is consider as a survival one in which workers get shelter in order to not starving and ensure their subsistence and their family too. Clearly, the precarious conditions in which small and medium farm economic activities take place in Ecuador indicates that the labor is not moving to this sector attracted by the high wages, but for a survival income. However, empirical research is needed to prove this last affirmation. Moreover, the fact that Ecuadorean workers migrate from/to agriculture sector in a relatively easy way suggest that the labor employed has no high training nor experience in the activity. Since it has been found that less the contribution of agriculture in the national wealthy, the more the labor involved in the activity, it is possible to conclude that the people involved in agricultural activities get relatively poorer with respect to the workers in other economic sectors as the time passes. Public policy is required in order to transform this reality before no one Ecuadorean is interested in agricultural activities. Finally, it is important to remark, even though it has being done several times in this article, that the findings of this paper imply correlation but not causality. In order to establish a causality relationship between employment in agriculture and agriculture added value share, a linear regression model can be applied for example using a production function as economic model. However, it is not applicable for the Ecuadorean case since production functions are constructed in such a way that when the input increases (labor in agriculture in our case) the output also increases (agriculture added value share in our analysis) until a certain optimal point. Clearly, this behavior is not the one that drive the agriculture sector in the Ecuadorean economy, so the correlation analysis seems appropriate. REFERENCES Acosta, A. (2012). Breve historia económica del Ecuador. Corporación Editora Nacional. Third ed. Chaherli, N; Nash, J. (2013). Agricultural Exports from Latin America and the Caribbean: Harnessing Trade to Feed the World and Promote Development. Donizete, D. & Thomaz, A. (2002). A modernizacao da agricultura e os impactos sobre o trabalho. Scripta Nova. Revista Electrónica de Geografía y Ciencias Sociales, Universidad de Barcelona. 6 (119):44. ECLAC (2013). Perspectivas de la agricultura y el desarrollo rural en las Américas: Una mirada hacia América Latina y el Caribe. San José. P.p. 280. García Pascual, F. (2006). El sector agrario del Ecuador: incertidumbres (riesgos) ante la globalización. (Spanish). Íconos. Revista De Ciencias Sociales, (24), 71-88. García-Trujillo, R.; Muñoz, E. & Fraga, L.M. (1993). Bases para una ganadería sostenible en el trópico. Agrotecnia, ecología y pastoreo de rumiantes en los trópicos. UNAM. México, D.F. Glauber, JW. (2013). USDA 89th Agricultural Outlook Forum. Disponible en http:// www.usda.gov/oce/forum/ Iglesias, Fe. (1999). Del ingenio al central. Editorial Ciencias Sociales. La Habana, Cuba. Machado, H. (2004). Modelo de desarrollo agroexportador versus agricultura sostenible en América Latina y el Caribe. Pastos y Forrajes, Vol. 27, No. 1. Palacios, G. (1998). Intelectuales y cuestión agraria en los años treinta. Boletín del Archivo General Agrario. CIESAS-RAN. 02 p. 31 Jokisch, B. D. (2002). Migration and Agricultural Change: The Case of Smallholder Agriculture in Highland Ecuador. Human Ecology: An Interdisciplinary Journal, 30(4), 523. Troncoso, P (2005). Acerca de la Globalización en la Agricultura. Territorios, empresas y desarrollo local en América Latina. Tiempo y Espacio 15/2005 ISSN 0716-9671. Universidad del Bío-Bío. Chillán, Chile. World Bank (2015). World Development Indicators. Visited on March 2015. Available in http://data.worldbank.org/data-catalog/world-developmentindicators. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria __________________________________________________________________________________________________________________________ 112 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria Argothy Anderson Universidad de León, Facultad de Ciencias Económicas y Empresariales, León -España Resumen: El presente trabajo busca identificar los niveles de tecnología incorporada, producto de las relaciones comerciales interindustriales en la Economía Popular y Solidaria. Para lo cual se utilizará la información recogida en el Censo Económico del Ecuador así como en las Tablas Oferta Utilización, publicadas por el Banco Central de Ecuador. De esta manera se pretende identificar como los países en vías de desarrollo ante la falta de inversiones importantes en I+D directa, suplen de alguna manera esta deficiencia mediante comercio interno, esto permite que las innovaciones de otros sectores industriales apoyen a los sectores con los que se relacionan. Palabras clave: Innovación, difusión de tecnología, comercio, transferencia de conocimiento, economía del conocimiento, economía popular y solidaria Technology Transfer incorporated by inter-industry trade in the Social and Solidarity Economy Abstract: This paper seeks to identify levels of technology embodied, as result of interindustry trade relations in the People's Solidarity Economy. For which the information contained in the Economic Census of Ecuador as well as in Tables Offer Utilization, published by the Central Bank of Ecuador is used. This approach is intended to identify, how developing countries in absence of significant investments in R & D supplement this deficiency by internal trade, this allows innovations in other industries support sectors with relate industries. Keywords: Innovation, technology diffusion, trade, knowledge transfer, knowledge economy 1 1. INTRODUCCION El presente proyecto de investigación, es un primer acercamiento respecto a la transferencia de tecnología incorporada mediante el comercio interindustrial en la economía social y solidaria ecuatoriana. El objetivo de este trabajo es medir los flujos de tecnología incorporada dentro de la industria ecuatoriana; además identificar los sectores industriales en dónde existe mayor esfuerzo ya sea directo o indirecto de I+D. Haciendo especial énfasis en los sectores en los cuales se ha internacionalizado tanto en el pasado como el presente la economía del Ecuador. De esta manera en base a los datos que se obtengan, hacer recomendaciones de cara al futuro para lograr una verdadera transformación de la estructura de producción ecuatoriana de modo que el país se acerque más a la economía del conocimiento y la innovación. Situación que marcaría un cambio fundamental de características positivas frente al extractivismo de las economías en desarrollo. Este trabajo se respalda en las aportaciones teóricas de Papaconstantinou, Sakurai, y Wyckoff (1998), Keller (2004), Cohen y Levinthal (1989), entre otros, quienes manifiestan la importancia que tiene la difusión de tecnología incorporada mediante el comercio, ya sea a nivel internacional o en el ámbito nacional, mediante flujos interindustriales, destacando de manera especial como este flujo se convierte en una alternativa para los países que no cuentan con el stock de conocimientos adecuados para desarrollar I+D o para utilizar tecnología desincorporada (Redalyc, 1996). La metodología a usar en este trabajo se basa en matrices input-output las cuales son uno de los mecanismos más importantes desarrollados para medir relaciones interindustriales en la economía, (Gachet, 2005). Estas tiene que ser combinadas con el índice de innovación directa, el cual es un indicador de la porción de gasto en I+D por rama de actividad. Esta metodología ha sido utilizada con algunas variantes por autores como Terleckyj (1974), Scherer (1982) y más recientemente por Amable y Palombarini (1998), Papaconstantinou et al (1998), Camacho y Rodríguez (2005). De esta manera se logra tener los indicadores relevantes que permitan el entendimiento de las características del flujo de tecnología incorporada en la economía y así responder las preguntas de investigación. Cabe destacar que existen dos supuestos iniciales: i) el gasto en I+D es considerado como un recurso importante para la expansión del conocimiento técnico, y ii) las transacciones comerciales interindustriales [email protected] Revista Politécnica - Marzo 2016, Vol. 37, No. 2 113 Argothy Anderson _______________________________________________________________________________________________________________________________ transportan I+D a través de las industrias y países, (Papaconstantinou et al., 1998). Las conclusiones de este trabajo identifican los sectores industriales que mayor esfuerzo en I+D directa, indirecta y total poseen. Destacan mediante el análisis de datos la importancia que tiene la tecnología incorporada para la industria ecuatoriana. Plantean recomendaciones respecto al futuro de la política pública de fomento y apoyo a la innovación, ciencia y tecnología. El trabajo cuenta con cinco capítulos. En el capítulo dos, se presenta una revisión teórica donde se habla de economía de la innovación destacando la importancia que esta ha tomado en la actualidad. Posteriormente se revisa algunas aportaciones teóricas sobre flujos de tecnología e internacionalización. El numeral tres explica de forma detallada la metodología utilizada, en la sección cuatro se presentan los resultados obtenidos del estudio. En el apartado cinco se destacan las principales conclusiones así como las limitaciones. 2. MARCO TEÓRICO 2.1 Economía del Conocimiento e Innovación Como manifiestan David y Foray (2001), en el siglo XX aparece una nueva característica del crecimiento económico, cuya principal evidencia es la profundización del capital intangible, frente al capital tangible. Una parte importante del capital intangible está compuesto por inversiones en capacitación, I+D, información y organización, es decir en actividades que tienen que ver con la producción y difusión de conocimiento. La sociedad en su conjunto es la que adopta actividades productivas que demandan conocimiento. Esta economía, se distingue por algunas características: i) la aceleración en la producción de conocimiento, ii) incremento del capital intangible a nivel macroeconómico, iii) la innovación se vuelve una actividad dominante dentro del plano económico, además de que sus fuentes son muy variadas, y iv) la revolución mediante instrumentos del conocimiento. Para entender el proceso de innovación y su relación con el conocimiento, se debe destacar la doble naturaleza del conocimiento, de acuerdo a Becattini (2005) y Nonaka & Takeuchi (1995) teniendo como base su posibilidad de transmisión, es posible dos tipos de conocimiento: i) Tácito, aquel que es difícil de transferir, pues se basa en muchos casos en la experiencia. ii) Codificado, es el que se encuentra disponible mediante documentos por ejemplo patentes, formulas químicas, manuales de uso, etc. Sin embargo no únicamente en el siglo XXI se habla de este tipo de economía, autores clásicos como Smith, Marx, List, entre otros, ya mencionaban respecto a la importancia del conocimiento y los elementos tecnológicos dentro del sistema de producción. Marshall (1890) manifiesta que los rendimientos crecientes se consiguen no solo mediante la concentración de la producción en establecimientos muy grandes, sino también por la proximidad de pequeñas empresas, destacándose la importancia de la cercanía geográfica como elemento que fortalece la relación y el intercambio de conocimientos, tecnología e innovaciones. Schumpeter (1947) indica que la empresa es el centro de la innovación, y es necesaria la existencia de empresarios innovadores los cuales sean capaces de generar pequeñas innovaciones incrementales de manera que creen condiciones de monopolio, que obligan a que el resto de empresas se vean en la necesidad de innovar o adaptarse. Caso contrario saldrán del mercado, este proceso de creación y destrucción genera un ciclo ascendente de inversión y determina el estado de la economía. Solow (1957) reaviva la discusión respecto al tema, en su trabajo busca cuantificar el progreso técnico de forma residual, estos residuos recogerían el cambio tecnológico y el tiempo. Luego del análisis, llegó a la conclusión de que la productividad por trabajador había incrementado mucho más de lo que podría ser explicado por la acumulación de trabajo y capital, lo cual indicaba que el factor residual jugaba un papel determinante en el crecimiento de la economía (Solow, 1957). Si se analiza desde el enfoque de la economía industrial y buscando la importancia del tamaño de la empresa como determinante de la innovación, se puede obtener resultados ambiguos. Es valedera la afirmación de que las empresas grandes poseen ventajas derivadas de su tamaño para la generación de innovaciones, así como que las empresas pequeñas o medianas son fuente de innovaciones, en la mayoría de casos radicales debido a su estructura de fácil adaptabilidad a las condiciones del mercado. Estudios empíricos han demostrado que la aglomeración de pymes, enfocadas en la producción de un mismo producto; permite, una rápida difusión de las innovaciones, (Bellandi, 1996). La estructura organizativa flexible beneficia la experimentación, pudiendo transformarlas en pioneras en la introducción de novedades ya sea al interior de la organización, o en el mercado (Abernathy & Utterback, 1978). Schumpeter (1947) otorga mayor importancia frente a actividades innovadoras a la gran empresa, estima que por su tamaño significativo accede a una mayor cantidad de recursos. Freeman (1975) vuelve a la discrepancia, afirmando que se pueden encontrar diferencias significativas respecto a la contribución en innovación entre pequeñas y grandes empresas, y estas dependerán mucho del sector industrial que se analice. En su teoría del Cambio Tecnológico, Dosi y Nelson (2009), manifiestan el avance tecnológico es un proceso evolutivo que se compone de tres elementos: i) la dinámica industrial, ii) el crecimiento económico, y iii) la innovación tecnológica y organizativa. Estos elementos llevan a la generación de novedad y únicamente se retienen las novedades que son adecuadas al momento de la selección. Dentro del campo de la tecnología y la innovación se pueden destacar algunas características propias, las mismas que son recogidas por Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ 114 Molero (2001), de estas particularidades se puede intuir cierto modelo de dinámica tecnológica, la misma que ha sido estudiada por algunos autores, siendo posiblemente más destacado Dosi (1982), quien presenta una importante distinción respecto a los paradigmas y las trayectorias tecnológicas. del tiempo, de tal manera en la actualidad, es la forma económica fundamental para el desarrollo de los países, por tanto tiene que ser tomada en cuenta como un pilar para la planificación económica del Ecuador. La demanda como manifiestan Dosi y Nelson (2009), puede intervenir en el cambio de paradigma de tres maneras, i) mediante cambio en los precios relativos y condiciones, ii) influencia de las condiciones de mercado en la asignación efectiva de esfuerzos, iii) cambios de los criterios de selección en el mercado. Dada la diferencia de trayectorias tecnológicas se entiende que los países se encuentren en condiciones dispares de conocimiento tecnológico. Como manifiesta Posner (1961) existe un gap o brecha tecnológica generada por la mayor eficiencia en la producción y comercialización de productos frente a los países competidores, así como por el conocimiento acumulado. Las nuevas teorías del crecimiento económico a partir de los años 90 hacen hincapié en la innovación, como el mayor recurso para el avance tecnológico, lo que le convierte en la guía del crecimiento económico, dando lugar a varios estudios empíricos que buscan entender la capacidad de la Investigación y Desarrollo (I+D) para promover las z Las inversiones en desarrollo tecnológico no solo benefician al país o lugar donde se desarrollan sino también a sus contrapartes pudiendo ser industrias, a nivel local o países a nivel internacional. Este proceso en el cual otros se benefician de la tecnología desarrollada se denomina difusión de la innovación. La difusión incluye por lo tanto la adopción de otros usuarios, así como el uso más extensivo del innovador original; a breves rasgos se dice que incluye todas las medidas que se tomen a nivel de empresa, sector o país para explotar los beneficios económicos de la innovación (OCDE, 1988). Dentro de las teorías que vinculan al comercio con la tecnología se puede mencionar a Vernon (1966) en su enfoque del ciclo vida del producto. En base a las desigualdades de las capacidades tecnológicas entre los países, se plantea la posibilidad de explicar la diferencia existente entre los patrones de comercio internacional y crecimiento, (Barcenilla y López, 1996). En estos esfuerzos por entender las fuentes del cambio tecnológico y por catalogar la innovación dentro de un modelo explicativo aplicable para gran cantidad de industrias, el pionero sin lugar a dudas es Keith Pavitt (1984), pues su taxonomía es ampliamente reconocida como el pilar fundamental para entender la innovación. Dentro de esta se distinguen a sectores productores y usuarios de innovación ubicándolos dentro de cuatro grupos. Para la presentación de su taxonomía, la unidad básica de análisis es la empresa innovadora; además, indica que los patrones de innovación son acumulativos, por tanto dependerá de la trayectoria tecnológica seguida y de la actividad principal de la empresa, ya que diferentes actividades generan diferentes trayectorias, estas a su vez pueden ser agrupados en tres grupos: i) dominados por los proveedores; ii) producción intensiva, esta se divide en dos categorías: a) intensivos en escala, b) proveedores especializados; y, iii) basados en la ciencia. Las diferentes trayectorias tecnológicas pueden ser explicadas por las diferencias sectoriales, tomando en cuenta tres características: i) recursos tecnológicos; ii) necesidad de los usuarios; y, iii) medio de apropiación de beneficios. Después de revisar los diversos enfoques en cuanto a la economía del conocimiento, la innovación y la tecnología se llega al punto donde la tecnología se vuelve un determinante del comercio internacional, la especialización y la internacionalización de las industrias y los países, por lo que es necesaria su adquisición o desarrollo de innovaciones para que las economías se encuentren en una mejor situación de competencia, y puedan insertarse dentro de la economía basada en el conocimiento. En este sentido la revisión teórica sobre el camino, seguido por la economía del conocimiento, pretende destacar la importancia que ha adquirido con el paso 2.2. Flujos interindustriales de tecnología La difusión de la innovación a nivel internacional puede darse de varias maneras siendo aplicable también al contexto local. De acuerdo a Keller (2004), las tecnologías se mueven de un país a otro a través del comercio internacional, mediante bienes de capital y bienes intermedios los cuales pueden ser importados directamente. Usando bienes intermedios extranjeros en la producción final de un producto, esto constituye una forma implícita de uso de tecnología incorporada. Dando paso a un spillover de difusión internacional de tecnología, basado en que los costos de los bienes intermedios son menores que los costos de oportunidad que incluyen la I+D del producto desarrollado. Por tanto a nivel nacional también el comercio sirve como mecanismo de difusión de tecnologías entre las industrias. Otra manera de difusión de las innovaciones o la tecnología es la Inversión Extranjera Directa (IDE), esta ha sido ampliamente analizada tanto empírica como cualitativamente dentro de las teorías de IDE y productividad. Una tercera forma y que se aplica principalmente a las economías desarrolladas tienen que ver con la generación de efectos de spillover directos, en el sentido de que se generan ideas y conocimiento que pueden ser utilizados en los procesos de producción por empresas que no sean las que llevan a cabo I+D (Savvides y Zachariadis, 2002). Para este caso de estudio se tendrá en cuenta la difusión de tecnología debido al comercio de bienes intermedios dentro de los sectores industriales de la economía ecuatoriana. De acuerdo a Papaconstantinou et al. (1998), la difusión de tecnología se refiere a los mecanismos interindustriales a través de los cuales las empresas adquieren tecnología externa en lugar de generarla internamente. Esta puede ser de dos tipos: i) tecnología desincorporada y; ii) tecnología incorporada. La primera tiene que ver con la transmisión de conocimiento, experiencia técnica, o tecnología de tal forma que no es necesaria la compra de productos o maquinaria Revista Politécnica - Marzo 2016, Vol. 37, No. 2 115 Argothy Anderson _______________________________________________________________________________________________________________________________ que incorporen la nueva tecnología desarrollada. En el caso de la tecnología incorporada, esta tiene que ver con la introducción dentro de los procesos de producción, de maquinaria equipo o componentes que incorporan tecnología desarrollada por los proveedores nacionales o del extranjero. Si se analiza de manera empírica la diferencia entre los dos tipos de difusión de la tecnología, la línea divisora es un tanto difusa, y depende mucho de la metodología que se utilice. Cuando se utiliza como metodología las relaciones comerciales mediante tablas input-output como es el caso de este trabajo, se está analizando de manera específica los flujos de tecnología incorporada. Para Cohen y Levinthal (1989), existen dos ideas básicas que explican los patrones y los determinantes para difusión de tecnología no incorporada: i) los derrames de investigación: explican las características apropiables que tienen determinadas tecnologías en particular, muestra como parte del nuevo conocimiento o tecnología desarrollada por una empresa puede ser apropiable por otra. De acuerdo a los autores antes mencionados, debido a que la innovación no solo beneficia a la empresa iniciadora sino a otras, gracias a la difusión de la innovación, el conocimiento puede desarrollarse de manera más veloz y acumulativa. ii) la capacidad de absorción: es como las empresas aprenden a utilizar la tecnología desarrollada en otro lado, lo cual estará condicionado a la cantidad de inversión previa que haya realizado la empresa o industria. Así la facilidad de aprendizaje dentro de una industria resulta directamente afectada por el nivel de gastos en I+D e indirectamente determinará la influencia que tengan los derrames sobre los flujos efectivos de difusión. La adopción de una tecnología presupone la capacidad de absorción, y esto último estará relacionado con la capacidad de innovación. Cuando los países se han iniciado tarde dentro del desarrollo de la I+D, y por lo tanto no tienen la capacidad o stock de I+D acumulado para aprovechar de manera eficiente, las ventajas de la difusión de la tecnología desincorporada, tienen que optar por mecanismos de difusión incorporados en equipos o productos intermedios que han sido desarrollados en otra parte o en otra industria, (Redalyc, 1996). Cuando se habla de difusión de tecnología incorporada, aparece un nuevo actor, se trata del mercado. Mediante el comercio de productos intermedios, maquinaria, equipos, etc.; los países o las industrias que presentan deficiencias a nivel de I+D y tecnología, tratan de adquirir esta tecnología y ser más competitivos. En este caso unas pocas industrias actúan como proveedoras de tecnología, las mismas que se encargan de vender bienes intermedios y bienes de capital con elevada intensidad tecnológica al resto de industrias, consumidores y gobierno; por lo general las industrias proveedoras son manufactureras intensivas en I+D+I, reciben un flujo relativamente escaso de I+D incorporada pues a menudo usan su I+D para desarrollar su propia tecnología y productos. Respecto de los tipos de innovación y los usos transversales que se da a la tecnología existen algunos autores por ejemplo se puede mencionar el trabajo de Robson, Townsend y Pavitt (1988), en donde presentan a través de una encuesta realizada a 4000 empresas innovadoras del Reino Unido durante el período 1945-1983, identificando cinco sectores básicos, seis secundarios, y otros. El estudio revela que las innovaciones de los sectores básicos son usadas en 18 de 26 sectores, determinando la importancia que tienen algunas industrias intensivas en tecnología, para el desarrollo del resto de industrias dentro de un país. Otro esfuerzo en la misma línea, es el realizado por Davis (1988), quien analiza el patrón de difusión de la tecnología entre Estados Unidos, Canadá y Japón mediante la compra de bienes intermedios y las inversiones intensivas en tecnología, concluyendo que gran cantidad de los bienes intermedios incluían insumos tecnológicos incorporados que servían de base para la industria que los utilizaba. Este estudio señala la importancia de la difusión para dar sustento a la competitividad de los países, pues permite entender las diferencias entre los patrones de difusión al interior de los mismos, también concluye que es importante crear medidas significativas de la intensidad tecnológica que incorporen la innovación realizada dentro de la misma industria y la difusión, es decir I+D+I proveniente de otros sectores industriales o del exterior incorporados en maquinaria, bienes intermedios o equipos, para tener de esta manera un mejor direccionamiento de la política pública de I+D. La importancia que tiene la difusión mediante tecnología incorporada para los países en desarrollo es trascendental, como manifiestan Savvides y Zachariadis (2002), esto permite el crecimiento de la Productividad Total de los Factores (PTF), ya que estos países se encuentran atrapados en un círculo vicioso de insignificante actividad de I+D, que no permite alimentar el motor del crecimiento económico, la falta de un progreso económico significativo, ocasiona débiles incentivos para desarrollar un sector productivo basado en el conocimiento, de hecho muchos de estos países han luchado por décadas tratando de mejorar sus condiciones económicas, obteniendo únicamente resultados decepcionantes (Seck, 2011). Una de las estrategias de desarrollo debe consistir en buscar alternativas para acercar el beneficio de la difusión de tecnología, estrechando las relaciones interindustriales, pues estas reflejan la compleja naturaleza de la tecnología de producción, como un sistema de partes interdependientes. Estas relaciones interindustriales como se mencionó permiten elevar la productividad lo que a su vez condiciona los sectores de internacionalización de la economía. 3. METODOLOGÍA Para la estimación de los flujos de tecnología incorporada de este trabajo se utilizan los gastos en I+D de las industrias combinados con los flujos de bienes intermedios de las matrices input-output o Tablas Oferta Utilización (TOU) de Revista Politécnica - Marzo 2016, Vol. 37, No. 2 116 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ la economía ecuatoriana, de manera que se pueda separar el I+D incorporado por la industria del I+D directo. Esta metodología descansa en dos supuestos: i) el gasto en I+D es considerado como un recurso importante para la expansión del conocimiento técnico, y ii) las transacciones comerciales interindustriales transportan I+D a través de las industrias y los países, (Papaconstantinou, Sakurai y Wyckoff, 1998). Los flujos de conocimiento incorporado entre sectores industriales han sido calculados mediante aproximaciones input-output desde hace tiempo atrás, siendo los primeros autores Terleckyj (1974), Scherer (1982), entre otros, para más adelante ser ampliados por otros estudiosos de la innovación y el método input-output como Papaconstantinou, Sakurai y Wyckoff (1998), Amable y Palombarini (1998), Drejer (2000), Camacho y Rodríguez (2005). A pesar de que existen otras aproximaciones para el cálculo del I+D directo de las industrias mediante el uso de patentes, publicaciones, etc., para el caso de países en desarrollo como el Ecuador, no se puede aplicar este cálculo puesto que no existe información relevante al respecto, para Ecuador en este caso, se hará un primer esfuerzo metodológico para calcular los flujos de I+D incorporado mediante la información existente de acuerdo a las últimas publicaciones de los organismos oficiales. El método cuantitativo más importante generado para medir la relación interindustrial es la matriz de insumo-producto o input-output, misma que es una contribución del Economista Wassily Leontief (1919-1939), esta se constituye como una adaptación a la teoría clásica del equilibrio Walrrasiano, formando una matriz estadística donde se calcula la interdependencia cuantitativa entre los sectores de la economía, y de esta manera se manifiestan los hechos reales a los que se enfrenta la economía (Montilla y Matzavracos, 2008). Leontief (1975) realiza una conjugación entre el pensamiento del siglo XVIII y el rigor matemático de Walras, en donde como supuestos teóricos fundamentales plantea que, las demandas de los factores son independientes de sus precios; los precios de los factores primarios son exógenos, la demanda final también es exógena, y los precios de los productos son independientes de la estructura de la demanda (Polo y Valle, 2002). El análisis input-output planteado por Leontief, tiene un enfoque estructural de la economía, permitiendo conocer el conjunto de relaciones de producción de un país, mediante la integración de un esquema contable, (Gachet, 2005). En las palabras de Leontief se obtiene el siguiente concepto: El método Input-Output constituye una adaptación de la teoría neoclásica del equilibrio general al estudio de la interdependencia cuantitativa que existe entre aquellas actividades económicas que guardan entre sí una relación recíproca (Leontief, 1975). Dentro de las ventajas que presenta este análisis se pueden destacar entre otros, que permite estimar los impactos de shocks exógenos en el producto, el valor agregado y el ingreso de una industria, ayuda a medir el efecto de las alteraciones en los precios de los factores o también de las importaciones con respecto a la oferta de bienes y servicios dentro de la economía (Gachet, 2005). Para entender de mejor manera el funcionamiento de la matriz input-output, a continuación se esbozará su metodología de cálculo desde el punto de vista matemático. En primer lugar se debe comprender que para una economía compuesta por n industrias, la producción se encuentra repartida para las otras industrias de acuerdo a los montos necesarios para sus procesos productivos, esto se conoce como insumos intermedios, y además la otra parte de la producción se destina a usos finales. (Gachet, 2005). Las relaciones entre las industrias se pueden presentar en términos de coeficientes técnicos, en donde se registran la cantidad de insumos requeridos en las diferentes industrias para completar su producción, para el cálculo de estos coeficientes (aij) una opción puede ser dividiendo cada insumo intermedio del bien i para la producción total de la industria j. Esto permite comprender que el consumo del bien (insumo) i dependerá enteramente de la producción de la industria j, por tanto los coeficientes técnicos, lo que hacen es indicar la porción consumida del producto i en la industria j, de acuerdo al total producido por j. El modelo input-output, es un modelo netamente de demanda, donde la producción de la industria j depende de la demanda final. Para obtener la información respecto a las dos variables anteriores (producción de j y demanda final) se utiliza la matriz inversa de Leontief, misma que recoge los requerimientos totales de insumos, pudiendo ser directos o indirectos, de cada unidad de producción, teniendo como supuesto que la estructura de la economía no cambia. La inversa de Leontief permite medir el impacto generado por un aumento exógeno en la demanda final sobre las diferentes industrias que se encuentran interrelacionadas. Lo anterior se puede expresar de manera matemática en forma de una matriz: X ( I A) 1Y BY (1) Dónde: X = vector de la producción A = matriz cuadrada de coeficientes técnicos Y = demanda final I = matriz identidad B = matriz inversa de Leontief Para el caso de una economía en donde existan únicamente dos sectores la Ecuación anterior quedaría de la siguiente manera: X1 (1 a11 ) X a 2 21 a12 (1 a22 ) 1 Y1 Y 2 Esta matriz inversa de Leontief es utilizada también para identificar los encadenamientos o eslabonamientos productivos, debido a que mide la producción sectorial que satisface a la demanda de consumos intermedios de las diferentes industrias de la economía. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 117 Argothy Anderson _______________________________________________________________________________________________________________________________ Donde B es la matriz inversa de Leontief. Los elementos bij de la matriz B indicarán el efecto directo e indirecto sobre la producción del sector i cuando se incrementa en una unidad la demanda final del sector j (i, j =1… N, con N sectores). El contenido de innovación del sector j incluirá su propio gasto en actividades innovadoras como también el gasto en innovación incorporado en los inputs que adquiere. Se define entonces la intensidad de innovación directa del sector i a nivel industrial, ri b n 1 EI j ri bij* i 1 (5) como su gasto directo en actividades de R I+D = ( i ) sobre la producción bruta (output, Xi), para encontrar el gasto en I+D por industria en la economía ecuatoriana se utilizará los datos del Censo Económico 2011 del Ecuador. (2) Una vez que se tiene la intensidad directa de innovación ésta se la tiene que combinar con la Inversa de Leontief, para esto se tiene que pre-multiplicar la Ecuación (1) por la matriz diagonalizada de coeficientes sectoriales de innovación (3), de manera que se obtiene la matriz T, cuyos elementos indican la innovación incorporada por unidad de demanda. T rˆB t ij (3) La Ecuación (3) relaciona el I+D doméstico incorporado con los componentes de demanda final. Por lo tanto se tiene que definir el I+D doméstico incorporado total por unidad de demanda final en la rama de actividad j de la siguiente forma: n rf ri bij i 1 Los multiplicadores de Leontief modificados son utilizados para eliminar el problema de doble contabilización, de manera que el esfuerzo tecnológico de cada industria (utilizando como variable bandera el gasto en I+D) puede definirse como la suma del gasto en I+D de la industria ( R ri i X i (i=1,2,….n) b B * [b ' , b ' ,...b ' ] j 1 2 n , donde B* se define como son los vectores con 0 en la j-ésima columna. En base a la matriz B*, el I+D incorporado o esfuerzo innovador indirecto (EII), mediante los consumos intermedios puede calcularse con la siguiente ecuación: (j=1,2…..n) (4) Siendo ij los elementos de la inversa de Leontief, ya definida anteriormente. Dado que la j-ésima columna de la inversa de Leontief, mide el efecto total directo e indirecto sobre la producción doméstica cuando la demanda final del jésimo sector varía una unidad, la Ecuación (4) proporciona la cantidad total de I+D incorporado por unidad de demanda final de la rama j, (Camacho & Rodríguez , 2005). Sin embargo el cálculo del I+D incorporado a través de las compras intermedias domésticas realizadas por rama de actividad j, es un tanto distinto a lo que se presenta en la Ecuación (4). Papaconstantinou et al. (1998) explica este fenómeno indicando que el multiplicador de Leontief tradicional mide cuanto I+D se incorpora directa e indirectamente por unidad demanda final del sector j, pero no cuanto I+D está incorporado en la producción bruta de dicha rama. Por lo tanto el I+D incorporado por rama de actividad debe definirse desde el punto de vista del output; para resolver este detalle, se utiliza una matriz inversa ajustada (B*). Por tanto se eliminan de la matriz los elementos correspondientes a la fila y columna j, de esta manera se identifica cuántos consumos intermedios de todos los sectores excepto del sector j se necesitan para producir una unidad de producto en el sector j. Como resultado la matriz más el I+D incorporado en los bienes intermedios ( (Camacho & Rodríguez , 2005). ri ) EI j ), 3.1 Fuentes Estadísticas Para la realización de la investigación se utiliza las bases de datos del Censo Económico del Ecuador 2011, publicado por el Instituto Nacional de Estadísticas y Censos (INEC), que cuenta con 515.000 observaciones de unidades productivas categorizadas de acuerdo a la revisión CIIU, incluyendo preguntas respecto a la inversión destinada a actividades de I+D, de esta manera se calcula el índice de I+D directo, que sirve de elemento para calcular el flujo de I+D incorporado entre los sectores industriales mediante las tablas inputoutput. Se trabaja con las Tablas de Oferta y Utilización (TOU), publicadas por el Banco Central del Ecuador, de acuerdo al cambio de año base realizado para la economía ecuatoriana y publicadas en el año 2011, en donde se recoge la realidad de la economía al año 2007 debido a que para este año se pueden contar con cifras reales, lo que permite una mayor exactitud en el resultado de los cálculos, ya que las TOU cuentan con una desagregación de 71 industrias por 278 productos, identificadas de acuerdo a la Clasificación de Productos de Cuentas Nacionales (CPCN), lo primero que se debe realizar es una agregación de manera que las tablas se vuelvan cuadradas y se pueda posteriormente trabajar con una matriz simétrica, por lo tanto se transformó las TOU a medidas de 71 x 71, y de esta manera se proceden a calcular los diferentes indicadores que serán presentado y analizados a continuación. 4. RESULTADOS A continuación se hará un análisis de los resultados obtenidos luego de aplicar la metodología descrita en el apartado anterior. La Tabla 1 muestra el Esfuerzo Directo de Innovación (EDI), el Esfuerzo Indirecto de Innovación (EII), y el esfuerzo total para las industrias ecuatorianas, ordenadas por el (EDI). Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ N 38 31 65 54 66 67 48 41 7 37 51 61 5 69 26 45 53 49 44 20 40 64 63 60 33 70 55 21 62 68 42 58 35 12 14 30 57 23 15 Tabla 1. Esfuerzo Directo, Indirecto y total de I+D Sectores Industriales Esfuerzo Esfuerzo directo indirecto I+D I+D fabricación de productos 0,333543 0,003793 refinados de petróleo y otros bebidas no alcohólicas 0,142922 0,029762 servicios administrativos 0,083386 0,014998 del gobierno y defensa servicios de comercio 0,070802 0,024933 servicios de enseñanza 0,060067 0,010868 privada servicios de enseñanza 0,060067 0,003761 pública equipo de transporte 0,027659 0,027637 productos de caucho 0,021642 0,025557 cría de ganado y productos 0,020592 0,045137 animales fabricación de papel y 0,019509 0,024478 productos de papel Electricidad 0,018438 0,192514 actividades y servicios 0,016677 0,013217 financieros oleaginosas industriales 0,015109 0,026218 servicios sociales y de 0,010699 0,012624 salud no de mercado elaboración de cacao 0,008567 0,026388 chocolate y productos de confitería metales comunes 0,008402 0,031108 trabajos de construcción y 0,006958 0,030460 construcción muebles de cualquier 0,006799 0,022050 material cemento artículos de 0,006321 0,081266 hormigón y piedra aceites crudos y grasas 0,004856 0,031460 vegetales otros productos químicos 0,004745 0,029573 servicios prestados a las 0,004588 0,022172 empresas y de producción actividades inmobiliarias 0,004413 0,014450 comunicaciones e 0,003034 0,018722 información fabricación de hilos hilados 0,002881 0,039133 tejidos y confecciones entretenimiento recreación 0,002861 0,027338 y otras actividades de servicio servicios de reparación y 0,002761 0,007518 mantenimiento de vehículos de motor y motocicletas productos lácteos 0,002590 0,046945 elaborados servicios de seguros y 0,002212 0,018443 fondos de pensión servicios sociales y de 0,002179 0,012776 salud de mercado productos de plástico 0,002110 0,028483 transporte y 0,002032 0,085803 almacenamiento fabricación de cuero y 0,001802 0,024124 productos de cuero y calzado petróleo crudo y gas natural 0,001745 0,023141 minerales metálicos 0,001500 0,031886 elaboración de bebidas 0,001225 0,030283 alcohólicas servicios de suministro de 0,001210 0,027823 comida y de bebida productos de la panadería y 0,001179 0,027893 pastelería minerales no metálicos 0,001041 0,037334 Esfuerzo total en I+D 0,337337 N Continuación Tabla 1. Esfuerzo Directo, Indirecto y total de I+D Sectores Industriales Esfuerzo Esfuerzo Esfuerzo directo indirecto total en I+D I+D I+D 29 0,172684 0,098384 0,095736 0,070935 0,063828 0,055296 0,047199 0,065729 0,043988 0,210952 0,029894 0,041327 0,023323 0,034956 0,039511 0,037417 0,028849 0,087587 0,036316 0,034318 0,026759 0,018863 0,021756 0,042014 0,030199 0,010278 0,049534 0,020655 0,014955 0,030593 0,087835 0,025927 0,024887 0,033386 0,031508 0,029033 0,029072 0,038375 118 otros productos 0,000965 0,033200 alimenticios n.c.p. 3 flores y capullos 0,000905 0,018698 47 fabricación de equipo y 0,000675 0,023504 maquinaria 28 café tostado, molido, 0,000625 0,019767 soluble y otros n.c.p. 56 servicios de hotelería y 0,000533 0,030001 alojamiento 36 fabricación de madera 0,000524 0,034823 y productos de la madera 27 alimento para animales 0,000507 0,030315 11 acuicultura excepto 0,000463 0,030777 camarón 8 productos de la 0,000463 0,009884 silvicultura 39 productos químicos 0,000457 0,026787 básicos, abonos y plásticos 34 prendas de vestir 0,000429 0,023997 (inclusive de cuero y piel) 16 procesamiento y 0,000376 0,051239 conservación de carne 24 fideos, macarrones y 0,000375 0,040592 otros productos farináceos similares 22 elaboración de 0,000375 0,027812 productos de molinería 71 servicio doméstico y 0,000371 compras directas 25 elaboración y 0,000367 0,042010 refinación de azúcar 46 productos metálicos 0,000359 0,039137 elaborados 1 banano café y cacao 0,000338 0,024578 52 agua servicios de 0,000303 0,016282 saneamiento y gas 10 pesca excepto camarón 0,000259 0,057608 9 agricultura y pesca de 0,000259 0,048934 camarón 59 servicios postales y de 0,000200 0,025767 mensajería 50 otros productos 0,000165 0,010892 manufacturados 17 camarón elaborado 0,000126 0,044712 19 preparados y conservas 0,000126 0,036876 de pescado y de otras especies acuáticas 18 procesamiento de 0,000126 0,034900 pescados y otros 32 cigarrillos y otros 0,000085 0,029111 productos de tabaco 43 vidrio cerámica y 0,000059 0,073002 refractarios 13 servicios relacionados 0,000042 0,016708 con el petróleo y gas natural 4 tubérculos vegetales 0,000014 0,015538 melones y frutas 2 cultivo de cereales 0,000004 0,030231 6 servicios relacionados 0,000001 0,031216 con la agricultura Promedio de las industrias 0,01408 0,03114 Fuente: Elaboración propia 0,034165 0,019603 0,024179 0,020392 0,030534 0,035347 0,030822 0,031240 0,010347 0,027244 0,024427 0,051615 0,040967 0,028187 0,000371 0,042377 0,039497 0,024916 0,016585 0,057867 0,049194 0,025968 0,011057 0,044838 0,037002 0,035026 0,029196 0,073061 0,016750 0,015553 0,030235 0,031217 0,04522 De la Tabla 1 se puede identificar que el sector de mayor esfuerzo directo en I+D dentro de la economía ecuatoriana es el (38) fabricación de productos refinados de petróleo y otros, Revista Politécnica - Marzo 2016, Vol. 37, No. 2 119 Argothy Anderson _______________________________________________________________________________________________________________________________ dado que esta industria mantiene una alta tasa de gasto en I+D directo, su flujo de I+D o tecnología incorporada es baja. El que este sector en el país tenga gastos importantes en cuanto a I+D es debido a que se trata de un país petrolero, donde en los últimos años se han hecho importantes inversiones en laboratorios y capacitación, por supuesto que debido a una limitación de información esto no puede ser desagregado de una manera más minuciosa. El siguiente sector que presenta un valor importante en I+D directa es el (31), en este sector en cambio se puede apreciar que el nivel de I+D indirecta es un tanto más moderado, incluso llega a ser mayor que la I+D directa, esto puede tener una explicación debido a que es un sector donde conviven empresas extranjeras y nacionales, por lo que ha existido un impulso de la parte extranjera privada y también se mantienen las relaciones entre las empresas nacionales. Un sector que sin duda en cuanto a investigación y desarrollo en cualquier país tiene que estar presente en los primeros lugares es el (65) servicios administrativos del gobierno y defensa, pues es este sector el que contabiliza el mayor gasto por parte del estado en cuanto a I+D, y en este caso al ser un sector altamente protegido las relaciones intersectoriales de I+D se ven limitados es así que a nivel indirecto se puede apreciar un valor bajo de tecnología incorporada, seguramente si se hace un análisis de las interrelaciones de I+D con el extranjero se podría identificar que el flujo es mayor. Otros sectores que muestran una importante (EDI) son los de servicios (54), (66) y (67), aquí cabe destacar la importante participación de la educación, esto seguramente está determinado por la importante inversión realizada por el gobierno a favor de la modernización de este sector. Cabe destacar la diferencia entre el (EII) entre la educación privada y la pública, seguramente explicado por la burocracia existente al momento de realizar compras a otros sectores por parte de la educación pública, a diferencia de la privada donde existe mayor facilidad para compras a otros sectores industriales. Es importante destacar que la mayoría de los sectores que se encuentran a la cabeza del esfuerzo directo en innovación son los sectores industriales manufactureros, a diferencia de los sectores tradicionales o primarios que cuentan con flujos muy bajos de I+D directa, debido a la baja demanda de tecnología y fundamentalmente a las bondades de la naturaleza que hacen que no sean necesarias mayores inversiones en I+D para la explotación de los recursos. Para tener una visión general sobre los resultados obtenidos de los diferentes indicadores de esfuerzo de innovación de economía ecuatoriana, la Tabla 2 presenta algunos datos estadísticos. Tabla 2. Datos estadísticos de los indicadores intersectoriales de I+D Estadísticos ESF_IND_INN ESF_DIR_INN ESF_TOT_INN 71 71 N Válidos 71 0,03114038 0,01408449 0,04522487 Media 0,024960451 0,044756037 0,047903182 Desv. Típ. 0,001 0,002 0,002 Varianza 0,000000 0,000001 0,000371 Mínimo 0,192514 0,333543 0,337336 Máximo Fuente: Elaboración Propia De acuerdo a la Tabla 2 se puede apreciar los promedios de cada una de los indicadores, la desviación típica la cual es moderada, tomando en cuenta la heterogeneidad de los sectores industriales en cada uno de los indicadores. La varianza de igual manera es baja, lo cual muestra que no existe una dispersión demasiado grande entre los datos analizados. A continuación se presenta el 1 que muestra cómo se encuentra distribuido el esfuerzo directo en innovación de la industria ecuatoriana con respecto al promedio de esfuerzo directo de los sectores industriales. Figura 1. Esfuerzo en innovación directa respecto al promedio de los sectores industriales. En la Figura 1 se puede apreciar cómo se encuentran los sectores industriales en cuanto a esfuerzo directo de I+D con respecto a la media de los sectores industriales del Ecuador (0,01408), es evidente que son muy pocos los sectores industriales que logran superar la media, debido a que el Ecuador no es un país donde las industrias realicen gastos constantes en I+D, además de acuerdo a la evidencia expuesta en el capítulo correspondiente, los países en desarrollo como el caso de Ecuador reciben innovaciones de tipo incorporado, ya que aún no cuentan con la base suficiente de conocimiento acumulado que les permita desarrollar esfuerzos propios por parte de las empresas y las industrias para revertir esta tendencia. Si se analiza por otro lado el esfuerzo indirecto en innovación, que comprende los flujos de tecnología incorporada recibidos por un sector de parte de las otras industrias, se puede constatar que efectivamente existe evidencia sobre lo manifestado por Papaconstantinou, Sakurai, y Wyckoff (1998), cuando indican que los países en vías de desarrollo reciben mayores flujos de tecnología incorporada por parte de las industrias. La Figura 2 muestra el esfuerzo indirecto en innovación de la industria ecuatoriana comparada con el esfuerzo indirecto promedio de todas las industrias. Figura 2. Esfuerzo en innovación indirecta respecto a promedio. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ 120 En este figura en primer lugar hay que destacar que la media del esfuerzo indirecto de todas las industrias (0,03114), tiene una valor más alto que en el caso de la media del esfuerzo directo, lo que podría indicar que los sectores industriales de la economía del Ecuador reciben mayor tecnología incorporada. En segundo lugar hay que subrayar que la cantidad de sectores industriales que se encuentran sobre la media es superior al caso del esfuerzo directo en innovación, por lo tanto hay evidencia respecto a la forma de integrar tecnología en el proceso de producción en los países en vías de desarrollo, es en base a los flujos interindustriales. Dentro de este figura se pueden apreciar sectores que destacan de manera notoria, es el caso de (51) electricidad, el mismo que según los resultados recibe un fuerte aporte de tecnología incorporada por parte del resto de sectores industriales, esto puede tener una explicación en primer lugar debido a que no se está haciendo ninguna separación dentro de electricidad por tipo de fuente, por lo tanto en este sector se están concentrando los esfuerzos tanto de electricidad por energía renovable, como no renovable, además hay que indicar que este sector incluye producción y comercialización. Este valor también puede ser afectado por la cantidad de demanda del sector respecto a otros sectores debido a los grandes proyectos hidroeléctricos en los cuales el Ecuador se encuentra inmerso, por ejemplo, Verdeyacu Chico, Naiza, Zamora San Juan Bosco, Zamora Salto (1, 2 y 3), entre otros, todos estos con una potencia superior a 100 MW, además de esto la incursión dentro de la energía solar y eólica, (Consejo Nacional de Electricidad, 2011). Otro sector que cuenta con un flujo alto de tecnología incorporada es (58) transporte y almacenamiento, el cual esta recibiendo tecnología incorporada fruto de las adquisiciones de equipos de transporte y otros sectores como el de comercio de vehículos o ensamblaje, cabe destacar que se han emprendido proyectos por parte del Gobierno ecuatoriano como el Plan Renova, que busca modernizar toda la planta del transporte público. Esto hace que haya un impulso y que se vea reflejado también en el flujo de tecnología incorporada, valor que al incrementar la demanda de un sector se va a ver afectado positivamente. Sectores que merecen ser destacados también son el (10), (16), (17), (21), (44), pues sus valores de Esfuerzo Indirecto en Innovación son representativos, lo que muestra que éstos están recibiendo un importante aporte del resto de sectores industriales, además de que mantienen relaciones constantes con el resto de sectores, lo cual es necesario tomando en cuenta que es una forma de fortalecer el mercado interno. En la Figura 3 que se presenta a continuación se ubica en el plano a los dos indicadores para cada uno de los sectores. Figura 3. Comparación de los dos sectores indicadores de innovación En la Figura 3 se puede apreciar como los sectores que cuentan con altos niveles de I+D directo (barras azules), reciben bajos flujos de tecnología incorporada (barras verdes), por el contrario se puede apreciar como en la mayoría de los casos es el verde el color dominante, lo que significa que el flujo de tecnología incorporado es más representativo, permitiendo evidenciar la importancia de la tecnología incorporada dentro de los países en vías de desarrollo. Como se aprecia en la figura las industrias mantienen un valor similar de flujo de tecnología excepto en algunos casos (31), (38), (51), (66), donde los valores son considerablemente diferentes, pero debido a que es una cantidad mínima, se puede asumir que son casos que podrían ser afectados por factores especiales que en este trabajo no serán analizados. Si se analiza cuál es la situación de los indicadores de esfuerzo en I+D para los sectores tradicionales de internacionalización de la economía ecuatoriana se obtiene los siguientes resultados. No. 1 9 17 Tabla 3. Indicadores de I+D de los sectores tradicionales de internacionalización. Sector Industrial Esfuerzo Esfuerzo Esfuerzo indirecto en directo en total en I+D I+D I+D banano café y cacao 0,024578 0,000338 0,024916 agricultura y pesca de camarón camarón elaborado 0,048934 0,000259 0,049194 0,044712 0,000126 0,044838 12 petróleo crudo y gas 0,023141 0,001745 0,024887 natural 13 servicios relacionados 0,016708 0,000042 0,016750 con el petróleo y gas natural 38 fabricación de 0,003793 0,333543 0,337337 productos refinados de petróleo y otros Promedio todos los 0,03114 0,01408 0,04522 Sectores Fuente: Elaboración Propia En la Tabla 3 se muestra cuáles son los niveles de esfuerzo directo, indirecto y total de I+D dentro de los sectores tradicionales de internacionalización del Ecuador, cabe destacar que son sectores primarios, mismos que se basan en las bondades de la naturaleza antes que en los esfuerzos en la técnica. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 121 Argothy Anderson _______________________________________________________________________________________________________________________________ Figura 4. Esfuerzo directo en I+D sectores tradicionales La Figura 4, muestra el esfuerzo directo en I+D de los sectores tradicionales de exportación, se puede apreciar que los valores no son representativos, pues se encuentran por debajo de la media del total de las industrias (0,01408), el único caso en que se supera este valor es en el sector (38), que no ha sido incluido debido a la distorsión que genera en la figura por su alto valor. Al ser todas exportaciones primarias, los valores de I+D directo son mínimos pues se basan en la renta de la naturaleza antes que el uso de la investigación y la ciencia. Tabla 4. Indicadores de I+D de los no tradicionales de internacionalización No. sector Industrial Esfuerzo Esfuerzo Esfuerzo indirecto directo total en en I+D en I+D I+D 3 flores y capullos 0,018698 0,000905 0,019603 4 tubérculos 0,015538 0,000014 0,015553 vegetales melones y frutas 14 minerales 0,031886 0,001500 0,033386 metálicos 15 minerales no 0,037334 0,001041 0,038375 metálicos 32 Cigarrillos y otros 0,029111 0,000085 0,029196 productos de tabaco 36 fabricación de 0,034823 0,000524 0,035347 madera y productos de la madera Promedio todos los 0,031140 0,014080 0,04522 sectores Fuente: Elaboración Propia En la Tabla 4 se muestran tanto el esfuerzo directo, indirecto y total en I+D de los sectores no tradicionales primarios, al igual que en el caso anterior al ser materias primas en su mayoría, no se puede apreciar valores altos de I+D, mientras que para el incorporado si existe unos resultados mayores. Estas industrias no demandan demasiada I+D de las otras industrias, a pesar de que existe un flujo comercial constante. Figura 5 Esfuerzo indirecto en I+D sectores tradicionales Figura 6. Esfuerzo directo en I+D sectores no tradicionales primarios. Como se puede apreciar en la Figura 5, los sectores tradicionales al ser poco intensivos en elementos tecnológicos, no reciben una cantidad considerable de tecnología incorporada de parte de otros sectores industriales por lo que únicamente las industrias (9) y (17) están sobre el valor de la media de todas las industrias, sin embargo como se aprecia, el indicador de intensidad indirecta de I+D es mayor que la intensidad directa, por lo que hay evidencia de que estos sectores al no realizar I+D directa, compensan mediante tecnología incorporada, pues si se ve los resultados del esfuerzo total de I+D de la Tabla 3 se aprecia que todos los sectores tienen valores representativos. Los valores del EDI, para el caso de los sectores primarios no tradicionales, son bajos debido a que son industrias que producen materias primas salvo en el caso de los sectores (14) y (15) que al ser de minerales requieren maquinaria, lo que hace que los empresarios estimen la compra de esta como esfuerzo en I+D, sin que esto sea necesariamente lo correcto desde el punto de vista académico de la innovación. Si se analizan los indicadores de intensidad de I+D, de los productos no tradicionales primarios, se puede apreciar que la situación no cambia demasiado. Figura 7. Esfuerzo indirecto en I+D sectores no tradicionales primarios. Como se manifestó anteriormente el EII posee valores más altos que el EDI. Esto se debe a que para la producción de estas materias primas se necesita de ciertos insumos que se Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ 122 adquieren de las otras industrias lo que genera que se transfiera parte de la tecnología utilizada por las industrias de manera incorporada a los diferentes ciclos de producción de la industria demandante, en este caso se puede ver que únicamente los sectores (14), (15) y (36) superan la media de los sectores industriales, es entendible puesto que estos sectores requieren maquinaria más compleja. Existen además sectores no tradicionales industriales que han logrado internacionalizarse de manera adecuada en los últimos años, a continuación se presenta un análisis sobre estos. Tabla 5. Indicadores de I+D sectores no tradicionales industriales. No. Sector Industrial Esfuerzo Esfuerzo Esfuerzo indirecto directo total en en I+D en I+D I+D 5 oleaginosas 0,026218 0,015109 0,041327 industriales 18 procesamiento de 0,034900 0,000126 0,035026 pescados y otros 19 preparados y 0,036876 0,000126 0,037002 conservas de pescado y de otras especies acuáticas 20 aceites crudos y 0,031460 0,004856 0,036316 grasas vegetales 31 bebidas no 0,029762 0,142922 0,172684 alcohólicas 33 fabricación de hilos 0,039133 0,002881 0,042014 hilados tejidos y confecciones 34 prendas de vestir 0,023997 0,000429 0,024427 (inclusive de cuero y piel) 35 fabricación de cuero 0,024124 0,001802 0,025927 y productos de cuero y calzado 37 fabricación de papel 0,024478 0,019509 0,043988 y productos de papel 39 productos químicos 0,026787 0,000457 0,027244 básicos, abonos y plásticos 40 otros productos 0,029573 0,004745 0,034318 químicos 41 productos de caucho 0,025557 0,021642 0,047199 42 productos de plástico 0,028483 0,002110 0,030593 46 productos metálicos 0,039137 0,000359 0,039497 elaborados Promedio todos los sectores 0,031140 0,014080 0,0452 Fuente: Elaboración Propia En la Tabla 5 se puede observar los resultados obtenidos de los indicadores tanto de esfuerzo directo, indirecto y total de los sectores de internacionalización no tradicionales industriales del Ecuador, donde se debe destacar que excepto por las industrias (5), (31), (39) y (40), el resto de industrias no son intensivas en tecnología lo que se convierte en un determinante en el momento de analizar el esfuerzo directo de innovación, que presenta valores bajos debido a esta condición. Por otra parte esto se ve compensado con tecnología incorporada recibida mediante las transacciones comerciales con el resto de industrias. Figura 8. Esfuerzo directo en I+D sectores no tradicionales industriales. La industria (31) es la más representativa dentro del esfuerzo directo en I+D de los sectores no tradicionales industriales, una razón puede ser las inversiones realizadas por las empresas extranjeras y nacionales las cuales cuentan con plantas de producción y embotellamiento, además de que constantemente están lanzando nuevos productos al mercado. Otros sectores que destacan dentro de este cuadro son (5), debido a un incremento en la demanda de sustancias oleaginosas por parte del exterior lo que impulsado la inversión y la investigación en este campo. (37) la fabricación de papel es una industria nueva en el país, razón por la cual se han realizado inversiones en este sentido. (41) debido a la alta competencia externa en este campo se ha invertido en dotar tecnológicamente a este sector. Debido a que estos sectores son manufactureros, existe una mayor preocupación por la I+D. De todos los sectores de internacionalización analizados son estos los que mayores valores de I+D directo poseen. Figura 9. Esfuerzo indirecto en I+D sectores no tradicionales industriales. Las industrias no tradicionales que se han vinculado al exterior, como se puede apreciar reciben un importante flujo de tecnología incorporada del resto de sectores. De esta manera se suple la falta de inversión directa en I+D. Dentro de este figura cabe destacar algunos sectores que se encuentran sobre la media de las industrias como es el caso de (18), (19), (33) y (46). Estas actividades han tenido un fuerte apoyo por parte del gobierno mediante el fomento para la compra de maquinaria, actualización de conocimientos. En el caso de los textiles, la restricción de las importaciones está permitiendo que el sector se desarrolle lo que a su vez incrementa la demanda de productos intermedios, generando que el flujo de tecnología incorporada que proviene del resto de industrias aumente. Se puede esperar que si las condiciones continúan así paulatinamente se irá remplazando el I+D obtenido mediante productos intermedios, por I+D directo. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 123 Argothy Anderson _______________________________________________________________________________________________________________________________ 5. CONCLUSIONES Y RECOMENDACIONES En base a los resultados obtenidos luego de aplicar la metodología y analizar los datos se puede argumentar las siguientes conclusiones, tomando en cuenta las hipótesis iniciales y las preguntas de investigación: En el Ecuador existen sectores industriales que destacan respecto a la intensidad de I+D directa, los cuales son pocos y tienen que ver principalmente con sectores manufactureros en su mayoría. Por otra parte si clasificamos a las industrias de acuerdo al flujo de tecnología incorporada recibida de los diferentes sectores industriales se puede apreciar que se trata de diferentes sectores. Al igual que en el caso de los sectores que presentan mayores esfuerzos directos en I+D, los que manifiestan un superior flujo de tecnología incorporada son aquellos que tienen que ver con manufacturas que demandan insumos intermedios de las otras industrias. Reciben tecnología mediante las diferentes transacciones comerciales. Estas industrias tienen que ser analizadas con detenimiento para de manera paulatina ir cambiando las relaciones entre I+D directa en indirecta, de forma que las industrias por si mismas empiecen a elevar sus gastos en I+D provocando que se manifieste innovación abierta y cerrada, pues no se puede pretender que las industrias por si solas desarrollen todas las innovaciones que necesitan para su proceso productivo. Los sectores de internacionalización de la economía ecuatoriana tanto tradicionales como no tradicionales, poseen un bajo nivel de I+D directa, excepto en el caso del sector (12), el cual por ser una industria de muchos años en el Ecuador, además de que ha recibido un fuerte apoyo por parte del gobierno para su modernización, presenta niveles importantes de I+D directa. Cabe destacar que estos sectores tradicionales están basados en la renta de la naturaleza, lo que hace que los empresarios se despreocupen de realizar inversiones en I+D de manera que se mejore las características del producto y la producción, esto hace además que no reciban cantidades considerables de tecnología incorporada, debido a que son sectores de baja demanda tecnológica así como poca cualificación. En el caso de los sectores de internacionalización no tradicionales ocurre lo mismo, una baja I+D directa excepto en las industrias (14) y (15), que tiene que ver con minerales, que reclaman un poco más de tecnología. Si se analiza el nivel de tecnología incorporada de estos sectores se puede apreciar que reciben un flujo mayor, pues son sectores que han tenido un incremento en su demanda en los últimos años, lo que hace que demanden más insumos intermedios que incorporan tecnología del resto de sectores industriales. De todas maneras estos sectores no dejan de ser primarios pues no realizan un proceso de agregación de valor demasiado sofisticado, más allá de la preparación del producto y su embalaje. Para el caso de los sectores de internacionalización no tradicionales industriales, se puede apreciar que al ser éstos manufacturas, poseen mayores esfuerzos de I+D directo, además de un flujo de tecnología incorporada superior pues demandan productos de varios de los otros sectores industriales. Sin embargo estos sectores siguen siendo de baja cualificación excepto en el caso de las industrias (39), (40), (41), (42), que tienen que ver con química, plásticos y caucho. Por lo tanto estos sectores deben ser tomados en cuenta por el gobierno para lograr una mejora de su potencial y que puedan en el futuro generar mayores innovaciones así como mantengan un mayor nivel de I+D directo, sin olvidar por supuesto la importancia de las relaciones con el resto de elementos del sistema nacional de innovación. En este trabajo se ha podido exponer evidencia sobre la teoría que manifiesta que los países en desarrollo, o que no cuentan con tecnología desarrollada de manera propia, tendrán que recurrir a tecnología incorporada como un mecanismo para incluir tecnologías dentro de su proceso de producción, por lo que sus niveles de tecnología incorporada serán superiores a los niveles de I+D directa, (Savvides y Zachariadis, 2002), (Seck, 2011). Como se ha podido apreciar en el estudio, en la mayoría de los sectores industriales, salvo en contados casos, es siempre superior el nivel de tecnología incorporada frente al nivel de I+D directo, lo que indica que efectivamente los países en desarrollo utilizan este mecanismo para tratar de reducir el gap tecnológico existente con los países desarrollados. Esta situación por otra parte, genera una fuerte dependencia hacia el extranjero, y un rezago pues el nivel de avance del país en desarrollo dependerá de su capacidad para obtener tecnología externa e incorporarla a sus procesos de producción, lo que dependerá del conocimiento acumulado sobre el área y de la capacidad de pago de patentes y demás licencias, así como de la capacitación del personal que opere la nueva tecnología. De esta investigación se pueden dar algunas recomendaciones respecto a la política de I+D que puede seguir el Estado Ecuatoriano, en primer lugar se debe entender que aún se continúa especializando en productos basados en la bondad de la naturaleza, lo que significa que poseen bajo nivel tecnológico y requieren de muy poca capacitación por parte de los trabajadores. Por tanto, es necesario que se realice un cambio paulatino hacia sectores de mayor demanda tecnológica, así como de fuerza laboral con alta capacitación y conocimientos. Es fundamental que exista una articulación conjunta de políticas en fomento de la I+D de manera que se cree un verdadero Sistema Nacional de Innovación, que ayude a que las industrias que poseen altos niveles de I+D directa continúen por esa senda vinculando mayores investigadores. Por otra parte, aquellas industrias que cuentan con un nivel medio de I+D directa, puedan ser entendidas como focos potenciales de desarrollo tecnológico por lo que se les debe incluir dentro de los sectores estratégicos del Estado. Para las industrias que cuentan con buen potencial internacional pero que únicamente se basan en flujos de tecnología incorporados de otros sectores, es necesario que sean tomados en cuenta de manera que se vaya disminuyendo la carga de I+D indirecta para dar paso a mayor I+D directa, de tal forma que empiecen a desarrollar innovaciones propias que permitan su inclusión dentro de la nueva economía mundial basada en el conocimiento. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Transferencia de Tecnología Incorporada Mediante Comercio Interindustrial en la Economía Social y Solidaria _________________________________________________________________________________________________________________________ Limitaciones Una limitación del estudio es que no puede ser comparado con estudios anteriores del mismo tipo en el Ecuador, ya que es el primer acercamiento respecto a I+D incorporada, por lo que no se puede identificar si existe una mejora o no en el tiempo. Al ser una primera aproximación, no se puede utilizar variables más sólidas para generar el indicador de I+D directo, como sería el caso de patentes, publicaciones científicas, número de investigadores, etc., sino que únicamente se utilizará la porción de gasto en I+D por sector industrial de la producción total. La utilización de tablas input-output presenta una limitación metodológica debido a su carácter estático y no dinámico como sería lo adecuado, sin embargo al ser basado en un modelo de equilibrio general, puede ser extrapolado en el futuro, hasta que se de una actualización de las TOU. Finalmente, la principal limitación de las economías en desarrollo tiene que ver con la información, la cual es difícil de obtener, sin embargo se ha hecho un esfuerzo para condensar toda la información necesaria de manera que el estudio sea lo más apegado a la realidad posible. 124 Davis, L. (1988). Technology intensity of U.S., Canadian, and Japanese manufactures output and exports. United States. International Trade Administration. In Redelycs, La difusión de tecnología (1996) (Vol. III, pp. 17-18). Argentina: Universidad Nacional de Quilmes. Dosi, G. (1982). Technological Paradigms and Technological Trajectories. A Suggested Interpretation of the Determinants and Directions of Technical Change. Research Policy(11), 147-162. Dosi, G., & Nelson, R. (2009). Technical Change and Industrial Dynamics as Evolutionary Processes. Amsterdam: Laboratory of Economics and Management. Dosi, G., Pavit, K., & Soete, L. (1990). The Economics of Technical Change and International Trade. Londres: Harvester Wheatsheaf. Drejer, I. (2000). Comparing Patterns of Industrial Interdependence in National Systems of Innovation - A Study of Germany, the United Kingdom, Japan and the United States. Economic Systems Research, 12(3), 377-399. Dunning, J. (1994). Multinational Enterprises and the Globalization of Innovatory Capacity. Research Policy, 23, 67088. Dunning, J. (1995). Reappraising the Eclectic Paradigm in an Age of Alliance Capitalism. Journal of International Business Studies, 26, 461-491. Freeman, C. (1975). La teoría de la innovación idustrial. Madrid: Penguín Alianza. Gachet, I. (2005). Efectos Multiplicadores y Encadenamientos Productivos: Análisis Input-Output de la Economía Ecuatoriana. (B. C. Ecuador, Ed.) Cuestiones Económicas, 21(3:3-3), 97-134. González, R. (2011). Diferentes Teorias del Comercio Internacional. Tendencias y Nuevos Desarrollos de la Teoría Económica(858), 103-118. REFERENCIAS Abernathy, W., & Utterback, J. (1978). Patterns of industrial innovation. Technology, 41-47. Amable, B., & Palombarini, S. (1998). Technical change and incorporated R&D in the service sector. Research Policy, 27(7), 655-675. Archibugi, D., & Michie, J. (1995). The Globalisation of Technology: a new taxonomy. Cambridge Journal of Economics, 19, 121-140. Barcenilla , S., & López, C. (1996). Tecnología y comercio desde el enfoque evolucionista. Ekonomiaz: Revista vasca de economía(36), 58-77. Ingram, J. (1993). Economía Internacional. México: Limusa. Keller, W. (2004). International Technology Diffusion. Journal of Economic Literature, XLII, 752-782. Leontief, W. (1975). Analisis Económico Input-Output. Barcelona: DEMOS Biblioteca Económica de la Ciencia. List, F. (1841). Sistema Nacional de Economía Política. Alemania. Marshall, A. (1890). Principios de Economia. Londres: McMillan. Becattini, G. (2005). : La oruga y la mariposa: Un caso ejemplar de desarrollo en la Italia de los distritos industriales:. Valladolid: Universidad de Valladolid. Molero, J. (2001). Innovación Tecnológica y Competitividad en Europa. Madrid: Editorian Síntesis S. A. Bellandi, M. (1996). Innovation and change in the Marshallian industrial districts. In Eurpean Planning Studies (Vol. 4, pp. 357-368). Montilla, F., & Matzavracos, J. (2008). ALGUNAS CONSIDERACIONES SOBRE EL ANÁLISIS ECONÓMICO INSUMO-PRODUCTO. FACESUNIVERSIDAD DE CARABOBO. Camacho, J., & Rodríguez , M. (2005). Los esfuerzos tecnológicos en el sistema productivo español: evaluación y comparación con otros países europeos. Estudios de Economía Aplicada, 23(3), 621-636. Camacho, J., & Rodríguez, M. (2005). Los esfuerzos tecnológicos en el sistema productivo español: evaluación y comparación con otros países europeos. Estudios de Economía Aplicada, 23(3), 621-636. Coase, R. (1937). The Nature of the firm. Económica, 386-405. Cohen, W., & Levinthal, D. (1989). Innovation and Leaming: the two faces of R&D. The Economic Journal, 569-596. Consejo Nacional de Electricidad. (2011). Proyectos Hidroeléctricos. Recuperado el 4 de Julio de 2012, de CONELEC: http://www.conelec.gob.ec/contenido.php?cd=1348&l=1 David, P., & Foray, D. (2001). An Introduction to the Economy of the Knowledge Society. (U. o. Oxford, Ed.) Economics Series Working Papers(84). Narula, R., & Dunning, J. (2000). Industrial Development, Globalization and Multinational Enterprises: New Realities for Developing Countries. Oxford Development Studies, 28(2), 141-167. Nonaka, I., & Takeuchi, H. (1995). The knowledge-creating company: how japanese companies create the dynamics of innovation. New York: Oxford University Press. OCDE. (1988). Science and technology policy outlook. Reino Unido: Organisation for Economic Co-operation and Development. Oddone, N., & Granato, L. (2005, Julio). Empresas multinacionales: de impactos reales y ficticios. Retrieved from http://www.eumed.net/ce/ OMC. (1996, Octubre 9). Organización Mundial de Comercio. Retrieved Febrero 9, 2012, from El Comercio y la Inversion Extranjera Directa: http://www.wto.org/spanish/news_s/pres96_s/pr057_s.htm Revista Politécnica - Marzo 2016, Vol. 37, No. 2 125 Argothy Anderson _______________________________________________________________________________________________________________________________ Papaconstantinou, G., Sakurai, N., & Wyckoff, A. (1998). Domestic and international product-embodied R&D diffusion. Research Policy(27), 301314. Pavitt, K. (1984). Sectoral Patterns of Technical Change: Towards a Taxonomy and a Theory . Research Policy, 343-373. Pavitt, K., & Patel, P. (1999). Global corporations and national systems of innovation: who dominates who? Polo, C., & Valle, E. (2002). Un Análisis Input-Output de la Economía de Balear. Estadística Espanola, 44(151). Posner, M. (1961). Internacional Trade and Technical Change. Oxford Economics, 323-341. Quesnay, F. (1764). Tableau économique (1972 ed.). (M. K. Meek, Trans.) Paris: Petri du Pont. Redalyc. (1996). La disfusión de tecnología. REDES, III(8), 129-161. Ricardo, D. (1817). Principios de Economía Política y Tributación (1975 ed.). Madrid: Aguilar. Robson, M., Townsend, J., & Pavitt, K. (1988). Sectoral patterns of production and use of innovations in the UK: 1945–1983. Research Policy, 17(1), 1-14. Ronderos, C. (2010). Inversión Extranjera y Competitividad. Globalización, Competitivilidad y Gobernabilidad, 4(2), 72-87. Retrieved Mayo 10, 2012, from Yale University's Economic Growth Center: http://www.bus.lsu.edu/economics/papers/pap02_20.pdf Scherer, F. (1982). Inter-industry technology flows in the United States. Research Policy, 11(4), 227-245. Schumpeter, J. A. (1947). The creative Response in Economic History. Journal of Ecnomics History, 7(2), 149-159. Seck, A. (2011, Febrero). International technology diffusion and economic growth: Explaining the spillover benefits to developing countries. Structural Change and Economic Dynamics, 30, 1-15. Smith, A. (1776). La Riqueza de las Naciones. Escocia. Solow, R. (1957). Technical Change and the Aggregate Production Function. The Review of Economics and Statistics, 39(3), 312-320. Terleckyj, N. (1974). Direct and indirect effects of the industrial research and development on the productivity growth of industries. In J. Kendrick, & B. Vaccara, New Developments in Productivity Measurement (pp. 357-386). Massachusetts: National Bureau of Economic Research. Vernon, R. (1966). International Investment and International Trade in the Product Cicle. Quaterly Journal Economics, 80, 190-207. Walras, L. (1954). Elements of Pure Economics. (W. Jaffí, Trans.) London: Allen-Unwin. Welch, L., & Loustarinen, R. (1998). Internacionalization: Evolution of a Concept. Journal of General Management, 22(2), 34-55. Savvides, A., & Zachariadis, M. (2002). International Technology Diffusion and Growth in the Manufacturing Sector of Developing Economies. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ 126 Análisis del beneficio marginal del gasto público y sus servicios Carrillo Maldonado Paúl A. Ministerio Coordinador de Política Económica, Subsecretaría de Consistencia Macroeconómica, Quito, Ecuador Resumen: El presente estudio tiene el objetivo de conocer la distribución del gasto público y sus servicios en la población de Ecuador en el año 2013. Se utiliza la metodología de análisis de incidencia del beneficio a nivel de hogar. Los resultados muestran que la distribución y su mayor acceso dependen de la naturaleza (o focalización) del servicio. La educación, salud, registro civil, transporte y carreteras son los servicios públicos con una distribución equitativa, aproximadamente. Mientras que, las prestaciones del SRI y del IESS son más utilizadas por el quintil más alto, que los otros, siendo los menos progresivos, respecto al ingreso per cápita. Palabras clave: Bien público, gasto público, incidencia marginal, bienestar, pobreza Marginal benefit analysis of public spending and their services Abstract: In this study, the goal is determine the distribution of public expenditure and services in the population of Ecuador in 2013. We use the methodology of benefit incidence analysis at the household level. The results show that the distribution and greater access depends on the nature (or targeting) service. Education, health, civil registration, road transport and public services are equitable. While, the performance of SRI and the IESS are used by the top quintile, the other being the least progressive relative to per capita income. Keywords: Public good, public expenditure, marginal incidence, welfare, poverty 1 1. INTRODUCCIÓN Los actuales sistemas económicos tienen una naturaleza mixta; es decir, se caracterizan por la interacción de los sectores privado y público. Esto se debe a que el mercado no provee todos los bienes para satisfacer las necesidades de un país y tampoco puede funcionar eficientemente, como postularon los mercantilistas y Adam Smith. En este sentido, la aparición del Estado en la economía es indispensable para proveer bienes (públicos y de mercado) que satisfagan las necesidades individuales y sociales que mejoren el bienestar de la población. Para este accionar del Estado es necesaria la contribución (en términos impositivos) de la sociedad que posibilita financiar la provisión de los bienes públicos. Las políticas de desarrollo que el gobierno ejerza con esta imposición deben tener una recaudación eficaz, un manejo sostenible de los recursos y una asignación eficiente de los mismos. De esta manera, los ciudadanos percibirán que el gasto en estas necesidades será justo y seguirán aportando en el sistema tributario. ¿Cómo aseverar que el gasto público es justo? Es una pregunta difícil porque la intervención del Estado implica el involucramiento de varias instituciones; además, que se debe partir la noción de justicia que hace referencia dar a cada uno lo que le corresponde y esto no implica necesariamente equidad. No obstante, la identificación de los usuarios del bien (o servicio) público facilita su evaluación ya que se puede medir su satisfacción o acceso. Además, se debe tener presente que la valoración de estos es compleja puesto que el mercado no es un referente confiable; es decir, el precio de mercado puede subestimar el valor que ponga la sociedad y, también, por lo general, estos bienes son racionalizados (entregados de manera discrecional) por el gobierno, por diferentes motivos. Esto no sucede con las transferencias monetarias porque se puede identificar a los consumidores y su valor ya está dado en el programa. Una alternativa para la valoración es el presupuesto utilizado en el programa, servicio o bien. En base a esto, identificar el acceso que tienen los usuarios para luego compararlos entre grupos y evaluar el gasto público. Esta comparación puede guiarse por el acceso entre los diferentes niveles del ingreso, esta metodología se conoce como Análisis de Incidencia del Beneficio (Benefit Incidence Analysis, BIA). Con estos antecedentes, en el presente documento se analiza el efecto distributivo que tienen los servicios públicos que provee el Estado ecuatoriano. Para cumplirlo, se utiliza el análisis de incidencia del beneficio en la sección de servicios públicos de la Encuesta Nacional de Empleo, Desempleo y Subempleo (ENEMDU), realizada en diciembre de 2013. Un punto clave en esta investigación es averiguar que parte de la distribución del ingreso se beneficia cuando se aumenta el acceso de los servicios considerados. [email protected]. Las estimaciones y los resultados de la investigación se pueden encontrar en la página del autor: https://sites.google.com/site/paulacarrillomaldonado/. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 127 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ El resto del documento tiene la siguiente repartición: la siguiente sección expone los argumentos teóricos para la intervención del Estado en el sistema económico y los preceptos que deben guiar su política; la tercera sección presenta la metodología utilizada en el análisis de incidencia. La cuarta parte muestra los resultados encontrados con la ENEMDU. En la última se concluye. 2. ESTADO Y LOS SERVICIOS PÚBLICOS Los sistemas económicos actuales tienen naturaleza mixta: se caracterizan por la interacción combinada del sector privado y público (Musgrave y Musgrave, 1992). Para Stiglitz (2000), el debate sobre esta naturaleza y el papel económico del Estado inicia en el siglo XVIII y se consolida con la Gran Depresión en 1929. Este autor propone las siguientes preguntas para el estudio de la economía del sector público: ¿por qué el Estado realiza solo unas actividades económicas y no otras? ¿Ejecuta demasiadas actividades? ¿Estas son eficientes? ¿Podría hacer mejor su papel económico?” (Stiglitz, 2000). Mientras que, Musgrave (1968) ya plantea tres funciones fundamentales inseparables del Estado en la economía: asignación, distribución y estabilización. Las preguntas de Stiglitz y las funciones de Musgrave abarcan el diseño de la política presupuestaria del Estado. Esta puede abordarse desde dos enfoques. Por un lado, determinar las reglas y principios que rigen el presupuesto para que sea óptimo, con base en condiciones iniciales de su formulación, llamada teoría normativa de la economía pública. Por otro lado, tratar de explicar la utilización y permanencia de las políticas existentes y predecir la posible adaptación de nuevas en el futuro, semejante a una sociología de la política fiscal. Sin importar el método que se use, es claro que se debe estudiar la reacción que tiene el mercado ante la presencia (o ausencia) del Estado (Musgrave, 1968). Según Stiglitz (2000), el debate sobre el papel económico del Estado en el mercado se remonta al siglo XVIII. En esta época, los mercantilistas franceses propusieron que el Estado debería fomentar el comercio e industria del país, no más. Esta idea fue impulsada por Adam Smith en su obra “La riqueza de las naciones” (1776). Ahí recomendaba que el papel del Estado debería ser limitado, intentando demostrar que la competencia y el ánimo de lucro de los individuos llevaría al bienestar público. Estos conceptos penetraron tanto en los economistas y los poderes contemporáneos, que el Estado dejó sin control ni regulación al sector privado y solo la competencia ilimitada asignaría eficientemente los recursos. En el mismo tiempo, estas ideas tan innovadoras de Adam Smith y sus seguidores (por ejemplo, John Stuart Mill) no convencieron a todos los estudiosos de la sociedad. Sismondi, Owen o Marx, por nombrar algunos, se preocuparon por explicar la desigualdad de la renta, el desempleo y la pobreza existentes y sugirieron otras formas de organizar la sociedad, no solo la de mercado. Entre estos, Karl Marx fue el defensor más influyente sobre la intervención del Estado en la asignación de los medios de producción. Sin embargo, no es hasta la Gran Depresión, donde el Estado tuvo que intervenir activamente para que los países industrializados, especialmente Estados Unidos, superen tal crisis. Los postulados de impulso de la demanda de John Maynard Keynes fueron fundamentales en las políticas de los gobiernos de esa época. Además, se llegó a la conclusión de que el mercado, por sí solo, había fallado (Stiglitz, 2000). Tras la conclusión de que el mercado falló, las ideas de John Maynard Keynes y su libro “Teoría general del empleo, el interés y el dinero” (1936) tomaron relevancia en el accionar político. Keynes creía con fervor que el Estado debía y podía intervenir en el sistema económico para estabilizar la actividad económica. Además, la crisis no solo mostró los problemas del mercado sino también otros. De tal manera que, los gobiernos impulsaron leyes para subsanar la seguridad social, el desempleo, la pobreza y otras medidas que tenían apuntaban a varios objetivos sociales, como mejorar las condiciones laborales (Stiglitz, 2000). Esta evidente intervención del Estado en la economía provocó que la literatura económica generara nuevos conceptos y teorías, donde el gobierno es un nuevo agente. Entre estos nace el concepto de hacienda pública, economía del sector público y los bienes públicos (o sociales). Musgrave propone además tres funciones del Estado en la economía para guiar, corregir y complementar al mercado: asignación, distribución y estabilización. La última serviría para mantener alto el nivel de empleo, los precios estables y una tasa de crecimiento constante de la producción. En la función de distribución, el objetivo sería realizar ajustes en la concentración de la riqueza y renta hasta donde la sociedad considere que es justo y equitativo. La asignación de recursos se preocuparía de proveer los bienes públicos a la población (Musgrave y Musgrave, 1992). Otro concepto que se introdujo con la intervención del Estado, y la justifica, es el de bien público. Este es un tipo que no excluye su consumo simultáneo entre los individuos ni tampoco rivalidad (Samuelson, 1954). En el mercado, el intercambio de mercancías se basa sus títulos de propiedad (Musgrave, 1968); este es un argumento válido para un carro o casa, pero no para parques o defensa nacional. Además, un consumidor puede satisfacer su deseo de algún bien siempre que esté dispuesto a pagar el precio establecido por el propietario; este concepto se conoce como principio de exclusión. Esto permite que el consumidor demande bienes que le satisfagan y el productor oferte productos para el primero con costos identificables (Musgrave y Musgrave, 1992). Las necesidades sociales no se pueden regir con el mecanismo del mercado porque la satisfacción de un individuo podría ser diferente a su contribución. Además, los bienes que satisfacen dichas necesidades tienen varios consumidores, donde su contribución individual es mínima respecto al costo total (Musgrave y Musgrave, 1992). Entre los bienes que contribuyen a la comunidad entera se puede mencionar la seguridad interna, la provisión de agua potable o hacer cumplir los contratos. A estos bienes, toda la sociedad tendrá acceso, unos más y otros menos, pero el beneficio no depende del pago ni tampoco puede ser Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ voluntario. De tal manera que, el gobierno debe intervenir en la economía para proveerlos con el financiamiento obligatorio de la población (Musgrave, 1968). En este sentido, la presencia de bienes públicos (no rivales y no excluyentes) y las fallas de mercado han llevado que el Estado intervenga en la economía (Amarante, 2007). En términos de desarrollo, este involucramiento se ha dado para mejorar el bienestar de la población, de lo que no entrega el mercado por sí solo. En este sentido, el Gobierno tiene un papel primordial en el desarrollo de un país. Por una lado, la provisión de educación, salud e infraestructura mejora la calidad de vida y fomentan el crecimiento, y, por otro lado, la garantía de los derechos a la vida y la libertad, a través de la seguridad, la defensa y la justicia, permiten un desarrollo de la actividad económica que respeta los contratos y la propiedad privada (CAF, 2012). Según CAF (2012), los Estados modernos también han procurado mejorar la distribución del ingreso. Para esto han generado sistemas impositivos con elementos de progresividad: tributos directos, tablas diferenciadas por fuente y nivel de renta, entre otros. Además, han implementado programas sociales dirigidos a la obtención de empleo y subsistencia de los pobres. No obstante, las políticas de desarrollo requieren un manejo sostenible de los recursos públicos, eficiente en la asignación de recursos y eficaz en la recaudación (BID, 2014). Esto permite que los ciudadanos perciban al pago de impuestos como justo porque financian un gasto que también lo es (Almeida et al., 2012). Esta intervención del Estado en la sociedad involucra a varias de sus instituciones. Este proceso complica la evaluación distributiva (análisis de incidencia) de la política fiscal (Amarante, 2007). Además, la provisión de un bien o servicio se vuelve más complejo para el gobierno porque la cuantificación del beneficio depende de la valoración y accesibilidad de estos. Esto no sucede en transferencias ya que su valoración monetaria es claramente identificable (Demery, 2003). En la microeconomía tradicional, el precio es un buen referente del valor de un bien o servicio. No obstante, en los bienes públicos y privados que provee el Estado esta medida no es buena guía. Por un lado, no asignar un precio no implica una falta de valoración. Por otro lado, a pesar de indicar un precio, el servicio se racionaliza, por diferentes factores, provocando que el pago no refleje necesariamente el valor para el consumidor. Sin embargo, se debe asignar una medida para conocer qué grupos de la población se benefician de esta provisión y reformular la política para mejorar su distribución (Demery, 2003). 3. ANÁLISIS DEL BENEFICIO En esta sección, se presenta la metodología para analizar la distribución del gasto de los servicios públicos en la población. Esto no constituye un problema en transferencias o subsidios monetarios porque se conoce explícitamente el valor entregado a los individuos. El dilema radica cuando el Estado provee un servicio, ya que es más difícil obtener el 128 beneficio real que recibe el usuario. La microeconomía tradicional menciona que el precio es una buena medida del valor. Sin embargo, los individuos pueden valorar en mayor (menor) medida el servicio dependiendo de su naturaleza o por la accesibilidad fuera del mercado (Demery, 2003). Una alternativa es evaluar el efecto que tiene el acceso a este servicio en la distribución del bienestar social (Younger, 2003). Se precisa en el acceso ya que el costo del servicio puede ser el mismo para todos las personas que acceden; es decir, un gasto per cápita (Davoodi, Tiongson, y Asawanuchit, 2003). En la primera parte de la siguiente sección se presentan los pasos para realizar un análisis de incidencia del beneficio basado en Davoodi, Tiongson y Asawanuchit (2003), Demery (2003) y Younger (2003). En la segunda, se exponen los diferentes enfoques para tratar el efecto marginal del aumento del gasto público (Marginal BIA, MBIA) siguiendo a Ajwad y Wodon (2001, 2002) y Lanjouw y Ravallion (1999). 3.1. Análisis de incidencia del beneficio El análisis de incidencia del beneficio combina el costo unitario de proveer el servicio con la información del beneficiario (Demery, 2003). El costo unitario de la provisión se obtiene de las instituciones estatales, a través de los registros del gasto público. Este gasto se puede diferenciar de varias formas para obtener un dato más cercano al costo del servicio; no se debe olvidar que el nivel de desagregación del gasto resulte coherente (Amarante, 2007), puesto que el costo es imputado a los individuos que utilizan el servicio. Para asignar el costo unitario a cada beneficiario, el principal supuesto se basa en no considerar las preferencias individuales, reconociendo que el valor asignado es el gasto promedio para entregar el servicio (Younger, 2003). Para medir el beneficio, se analiza el acceso al servicio que tiene la persona encuestada (usuario o beneficiario). Además, se busca un indicador de bienestar; comúnmente se utiliza el ingreso o consumo de los individuos2. Con estas consideraciones, se puede realizar: un análisis antes y después del gasto individual, si se conoce los detalles de los egresos; una comparación entre distintos grupos (género, regiones, etc.), o una evaluación distributiva de un gasto específico respecto a otros. En esta investigación se analiza la distribución de algunos servicios públicos en la población, considerando al ingreso como variable proxy del bienestar. Davoodi et al. (2003) plantea cinco pasos para implementar el BIA. Estos son: • Obtener el costo unitario medio para proveer el servicio, dividiendo el gasto de gobierno en el servicio para el número de usuarios. Estos usuarios son los últimos beneficiarios del servicio. Por ejemplo, los profesores no son los últimos beneficiarios, a pesar que sus sueldos son pagados por el estado, sino son los estudiantes ya que estos últimos acceden al servicio de educación. En la literatura, se utiliza las encuestas de hogares para identificar los usuarios, aunque se podría recurrir a los Revista Politécnica – Marzo 2016, Vol. 37, No. 2 129 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ reportes oficiales que son más precisos. Sin embargo, Demery (2003) indica que los registros administrativos pueden estar sesgados por reportes viciados o eventos atípicos. • Definir el beneficio por el gasto público para proveer el servicio, indicando la variable de bienestar. Este es un supuesto muy restrictivo porque se debe asumir que la variable recoge el bienestar del individuo. Una alternativa es estimar la curva de demanda. Amarante (2007) resume esta última metodología. • Ordenar los usuarios de acuerdo al ingreso y agregar en grupos de igual número de individuos: quintiles, deciles, etc. En este paso se debe decidir la unidad de análisis: individuo u hogares. Se recomienda utilizar individuos cuando se dirige a la persona (por ejemplo, educación) u hogares cuando el servicio es a la familia (por ejemplo, agua potable). • Estimar la distribución del beneficio multiplicando el beneficio medio por el número de usuarios en cada grupo de ingreso. Aquí se asume que el beneficio promedio no varía entre los grupos de bienestar, resolviendo que el costo no varía entre los usuarios sino que la cantidad lo hace. En la literatura, se presentan los resultados de dos maneras: tablas o gráficos. Para analizar estos resultados es primordial mencionar dos conceptos: progresividad, es la mayor participación de los individuos de ingresos bajos en el beneficio generado por el gasto gubernamental respecto a los otros grupos, y, focalización (orientación) pro pobre, es la concentración del beneficio en el grupo más pobre, donde si está focalizado es progresivo, pero no viceversa (Davoodi et al., 2003; Duclos y Araar, 2006)2. En las tablas, es común agrupar por quintiles y dividir para la media del beneficio de la población. En esta forma de presentación, la progresividad se produce cuando el beneficio disminuye mientras se recorre del primer quintil hasta el quinto, y, la orientación si la participación del quintil 1 es mayor que la del 5. En gráficos (ver Figura 1), se utiliza las curvas de concentración, mostrando que el beneficio es progresivo si su curva de concentración está por encima de la curva de Lorenz del ingreso y la focalización pro pobre cuando la curva de concentración del gasto está arriba de la recta de 45° o de equidistribución (Davoodi, Tiongson y Asawanuchit 2003). • Aunque Davoodi, Tiongson y Asawanuchit (2003) no menciona este paso, se puede comparar la distribución de un servicio con otras distribuciones para informar al hacedores de política (policymakers) sobre la orientación del gasto público. Se podría analizar con otros tipos de gasto, con la incidencia de otros años del mismo país o la distribución entre países. Los primeros pasos de la metodología se pueden resumir en la siguiente expresión: X j = Ej Ej S = S ; j = 1,2, … , n E E (1) Donde Xj es la incidencia del beneficio del servicio público S a través de los n grupos de ingreso, Ej es el número de S usuario en el grupo de ingreso j, y es el gasto unitario del E servicio. Si se evalúa sobre diferentes grupos de individuos o tipos de gasto, S es el total del gasto específico (educación, salud, etc.), teniendo un subíndice i (Si ). De esta manera, para obtener el porcentaje del beneficio respecto al gasto total, se divide beneficio Xj para este total de gobierno. Ej Si xj = ( ) ( ) = ej sj ; j = 1,2, … , n; i = 1, … , m E S (2) Donde ej es el porcentaje de usuarios en el grupo de ingreso j y sj es la proporción del gasto en ese servicio respecto al gasto total en ese grupo j. Por construcción, la suma de xj es igual a uno (Demery 2003; Davoodi, Tiongson y Asawanuchit 2003). Figura 1. Curvas de concentración y la incidencia del beneficio del gasto público, tomado de Davoodi et al. (2003). La principal ventaja de este método es la fácil implementación y sencilla presentación de resultados. Según Amarante (2007), estos análisis de incidencia ayudan a la reasignación presupuestaria o reformas en la política social, ya que se han implementado, en su mayoría, para estudiar el gasto en educación y salud. Además, permite conocer cual componente del gasto tiene mayor impacto sobre el ingreso corriente y si beneficia a los más pobres (Amarante, 2007). Algunas limitaciones de esta herramienta son: suponer el valor unitario del servicio al repartir el total sobre los beneficiarios, evaluar el efecto sobre los ingresos corrientes, analizar sobre los usuarios que se identifican y no discriminar el impacto de modificar el gasto público en un determinado 2 A pesar que los conceptos son parecidos, de manera formal estos no lo son ya que el uno acude a términos de cambio en la distribución y el otro a la concentración. Para ampliar estos conceptos revisar (Duclos y Araar, 2006) Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ 130 rubro3. Dividir el gasto total para el número de usuarios es muy restrictivo, ya que traslada las ineficiencias de ejecución de manera uniforme a todos los beneficiarios; este costo se puede modificar según la situación geográfica. Medir respecto a los ingresos corrientes no admite evaluar sobre otras dimensiones, efectos indirectos o de largo plazo. Al identificar el usuario es posible conocer su beneficio, pero esto no es factible en programas sociales de pequeña escala que no se reflejen en las encuestas de hogares o en rubros como seguridad o defensa nacional. Con este método tampoco se puede concluir el impacto distributivo en la expansión o reducción del gasto porque no se conoce el comportamiento de los agentes económicos sin el gasto generado en ese período; además, es muy restrictivo presumir que los precios relativos y los flujos corrientes no se modifican con la intervención del gobierno (Amarante, 2007; Demery, 2003; Younger, 2003). Bajo estas críticas, este método es una primera aproximación en el análisis distributivo del gasto público. Para obtener mayores conclusiones y recomendaciones es importante realizar otro tipo de estudios que sustenten los resultados preliminares y se puedan incluir comportamientos. Estos estudios complementarios pueden ser de orden cuantitativo o cualitativo, los que posibiliten evidenciar el impacto real del gasto público. De manera alternativa, se puede utilizar la percepción de los usuarios para mejorar la calidad del servicio (Amarante, 2007). 3.2. Análisis marginal de incidencia del beneficio Debido a las críticas al método BIA, se expandieron algunas metodologías que complementen la investigación del beneficio del gasto público; Younger (2003) resume las alternativas para medir este efecto marginal. Ajwad y Wodon (2001, 2002) y Lanjouw y Ravallion (1999) proponen instrumentos para medir el efecto marginal del incrementar el acceso, dado por mayor gasto. Los autores exponen estas alternativas explicando que la expansión del servicio no necesariamente va beneficiar a los que ya son usuarios, sino a nuevos individuos, donde no se conoce su comportamiento y su ubicación en la distribución del bienestar. En 1999, Lanjouw y Ravallion plantean un modelo de economía política donde el objetivo del gobierno es reducir la pobreza con la restricción de no afectar el bienestar de los que no son pobres. El impacto distributivo de modificar la política depende de la influencia que tengas los grupos socioeconómicos en el proceso. De esta manera, los autores justifican que el análisis tradicional de incidencia del beneficio no es útil para responder a la expansión del servicio. Además, indican que si los pobres logran beneficiarse del servicio en su creación, este será ocupado por los no pobres en su expansión, y viceversa (Figura 2). 3 Esta última crítica se podría resolver, por ejemplo, si se quiere entender la incidencia de proveer seguro médico a todos los que no lo tienen; si se les puede identificar en la encuesta, se puede estimar la incidencia aunque no exista el servicio al momento de la encuesta. Figura 2. Captura del servicio entre pobres y no pobres de acuerdo al tiempo de acceso, tomado de Lanjouw y Ravallion (1999). Bajo esta idea, utilizan la encuesta de consumo e ingreso de 1993-94 realizada en la India, agregando los indicadores a nivel de 62 regiones y quintiles, donde cada región pertenece a un solo estado. Se realiza regresiones por quintiles donde la variable dependiente es la participación de la región de cada quintil respecto la participación del estado. Lanjouw y Ravallion (1999) plantean que la estimación por mínimos cuadrados ordinarios (MCO) está sesgada porque la variable del estado es endógena, debido que contiene la tasa de la región. Para solucionar este inconveniente, plantean utilizar la participación en el servicio sin la región observada como variable instrumental. Los resultados muestran que la expansión del sistema de educación primaria sería más beneficiosa para los pobres. Ajwad y Wodon (2001, 2002) presentan una metodología alternativa a Lanjouw y Ravallion (1999) en la construcción de los quintiles, ya que proponen que estos grupos deben ser generados por cada zona geográfica y no a nivel nacional. Los autores exponen esta diferencia ya que es más importante el efecto en la región que a nivel nacional debido a la descentralización de estos servicios. Además, plantean también utilizar la participación del estado sin la región como variable explicativa de manera directa y no como instrumental. De manera empírica, estos autores utilizan las encuestas de hogares de 6 países de América Latina (Brasil, Revista Politécnica – Marzo 2016, Vol. 37, No. 2 131 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ Honduras, México y Venezuela del 1986, y, Chile y Guatemala del 1989). Sus resultados muestran que los pobres tienen menor acceso a los servicio de electricidad y agua potable que los ricos, pero que en la expansión los primeros se beneficiarán más. Aunque Lanjouw y Ravallion (1999) no definen un ecuación para la estimación de los beneficios marginales, Younger (2003) propone la Ecuación (3) y la presente investigación la adopta para el caso ecuatoriano. Esta expresión expone que el beneficio de un hogar i del quintil q depende de la participación que tiene la provincia k, una constante αq y un termino de error uq . El coeficiente β indica el beneficio marginal del quintil q cuando aumenta el acceso a un servicio determinado en la provincia k. pi,k,q = αq + βq pk + uq (3) Como antes se mencionó, estimar la expresión anterior por medio de MCO provoca que los coeficientes estén sesgados. Esto debido a que la participación de la provincia (pk ) incluye el acceso que tiene un hogar del quintil q, generando endogeniedad en el modelo. Lanjouw y Ravallion (1999) propone calcular la participación de la provincia sin el quintil en análisis y ese porcentaje utilizarlo como variable instrumental para pk . Otra solución es la de Ajwad y Wodon (2001), que recomienda usar la variable instrumental directamente en (3) En la presente investigación se calcula los coeficientes con la última sugerencia; de tal manera, la variable independiente es la participación de la provincia sin considerar el acceso del quintil q, en vez de la participación total. Ajwad y Wodon (2001) y Lanjouw y Ravallion (1999) proponen una consideración adicional en la estimación: la normalización de los coeficientes, es decir, el promedio de los βq es igual a uno. Esta condición facilita el análisis, ya que el beneficio marginal se analizará en función de la media: si el aumento del acceso es mayor a uno en un quintil determinado implica que esa parte de la distribución tiene un mayor rendimiento que el promedio. Además, se imponen dos restricciones: la suma de los beneficios marginales es igual al número de quintiles (5) y los coeficientes deben ser positivos4. Debido a que las restricciones no son lineales, la estimación se realizó con métodos de esta naturaleza. Younger (2003) recoge las diferentes formas de datos y de estimación para esta metodología. El autor expone que estas estimaciones se pueden hacer con datos con corte transversal en un año (cross-section data), varios años (pooled data) o panel de datos (panel data). Utilizar las diferentes bases de datos dependería de la disposición de las encuestas y si se desea controlar los efectos en el tiempo (fijos o aleatorios). Younger (2003) también expone que se puede calcular la diferencia de la participación en el tiempo, tomando dos 4 Esta condición se impone porque en la estimación inicial se utilizó la programación del comando imbi de Stata, pero los coeficientes tenían valores negativos, compensándose con valores positivos para que promedio sea uno y la suma cinco. Si se desea conocer los detalles de esta programación, contactarse con el autor. momentos diferentes y utilizar la regresión antes expuesta. Una última alternativa es estimar la probabilidad de participación en cada año que sea posible. En resumen, el MBIA ofrece un enfoque complementario para determinar la distribución de los beneficios marginales en la sociedad debido al gasto público adicional. El análisis de la incidencia marginal de beneficios es una metodología que permite evaluar el impacto distributivo en el bienestar de una expansión del gasto público, en particular en los programas sociales. Cuando los métodos tradicionales miden sólo el beneficio promedio del gasto público, MBIA permite la desagregación de los beneficios marginales por las características socioeconómicas (generalmente grupos de ingresos); esto es primordial cuando diferentes grupos socioeconómicos capturan los beneficios de un programa público en diferentes momentos. En estas circunstancias, ofrece una descripción más precisa de qué grupos son propensos a beneficiarse más de un aumento marginal en el gasto, o sufren más de una disminución marginal en el mismo. Por lo tanto, este análisis puede proporcionar información valiosa sobre si el gasto adicional regresivo, progresivo o propobre. 4. RESULTADOS Para conocer la distribución de los servicios públicos en la población de Ecuador, se utilizó la sección 10, Calidad de los servicios públicos, de la Encuesta Nacional de Empleo, Desempleo y Subempleo (ENEMDU) realizada en diciembre de 2013. Esta encuesta tiene representatividad nacional a nivel de provincia, excepto la región amazónica. En la sección mencionada se pregunta a dos miembros del hogar (aleatoriamente) sobre el funcionamiento general, los problemas, las instituciones y el acceso de los servicios públicos. En este estudio solo se considera las preguntas sobre la utilización de los siguientes servicios públicos: • • • • • • • • • • • • • • • 6.1 ¿Ha utilizado al SRI? 6.2 ¿Ha utilizado educación pública básica - secundaria? 6.3 ¿Ha utilizado educación pública superior? 6.4 ¿Ha utilizado salud pública? 6.5 ¿Ha utilizado inspectorías del trabajo? 6.6 ¿Ha utilizado a la policía? 6.7 ¿Ha utilizado a la matriculación vehicular? 6.8 ¿Ha utilizado al registro civil? 6.9 ¿Ha utilizado al IESS (salud) ? 6.10 ¿Ha utilizado al IESS (pensiones jubilares, ..) ? 6.11 ¿Ha utilizado transporte público? 6.12 ¿Ha utilizado créditos públicos? 6.13 ¿Ha utilizado carreteras públicas? 6.14 ¿Ha utilizado o recibido el BDH, vivienda, etc.? 6.15 ¿Ha utilizado los correos del Ecuador? Se consideró como unidad mínima de análisis a la familia (jefe de hogar) porque la mayoría de servicios la involucran. Podrían existir excepciones como inspectorías de trabajo o educación superior que solo benefician a unos miembros del grupo familiar, pero al final afectan al hogar. Además, se creó una pregunta general sobre el acceso a los servicios; para esta, si la respuesta del encuestado respecto a la Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ utilización de los servicios es afirmativa, se asume que el hogar lo utilizó, es decir, si un miembro usó alguno de estos servicios, entonces toda la familia tuvo acceso. Se realizó esto ya que el sorteo para encuestar puede llevar, por ejemplo, a que el niño niegue utilizar las prestaciones del IESS, pero la madre responda de manera positiva, o viceversa en educación primaria. Para el BIA se compara la concentración del ingreso con la distribución del servicio. De manera inicial, se puede analizar la distribución quintil por quintil para explicar los resultados. Una manera alternativa es utilizar el índice de Gini para conocer el nivel de concentración y el índice de Kakwani para la progresividad5. Este último se calcula como la diferencia entre el Gini del servicio y del ingreso per cápita; si el valor es negativo, el servicio tienen progresividad y regresividad si es positivo. Como se mencionó, el análisis de incidencia del beneficio se puede presentar en tablas o figuras. En esta sección se presenta la Tabla 1, la cual muestra la concentración de los diferentes servicios encuestados. En este documento se agrupo a la población en quintiles del ingreso per cápita de los hogares. Además, se incluye los límites inferiores y superior del ingreso en los quintiles para que las conclusiones sean claras respecto a la población que representan los encuestados. En el Apéndice A se pueden observar las figuras comprendidas desde Figura A.1 hasta Figura A.16. La Tabla 1 muestra que el índice de concentración de los servicios públicos, en general, es cercana a cero (Gini: 0,0039); esto muestra que la población de diferentes estratos de ingreso tienen acceso a los servicios que oferta el Estado. Los porcentajes de participación de cada quintil están cerca del 20%. Si se compara el Gini de ingreso (0,4904) con el índice de concentración de haber utilizado algún servicio, se puede observar que el último es menos concentrado que el ingreso; es decir, progresivo (Kakwani: -0,4865). Además, la razón entre el quintil 5 y 1 es 13 veces en el ingreso y 1 para el servicio, reafirmando la menor concentración y progresividad del servicio. Entre los 15 servicios encuestados se puede observar que existen servicios con índices de Gini negativos. Esto muestra que el acceso al Bono de Desarrollo Humana (BDH) y otras transferencias del gobierno cumplen su propósito porque son propobres por el signo en el Gini. Además, tienen un Kakwani de -0,2574. El servicio de salud pública y el transporte público también se concentran en los pobres, ya que sus índices de concentración son -0,0162 y -0,0002, a pesar de tener porcentajes de participación similares entre los quintiles (Tabla 1). Existen otros servicios con índices de concentración cercanos a cero, que muestran una distribución equitativa. La educación primaria–secundaria, las carreteras públicas, el registro civil y la policía nacional tienen esta característica. Respecto al ingreso per cápita se observa una clara progresividad de estos servicios con índices de Kakwani de 0,4789, -0,4756, -0,4811 y -0,4370; sin embargo, no tienen 5 Es común encontrar el índice de Kakwani en la literatura de concentración de impuestos, sin embargo, este se puede utilizar para el gasto bajo el mismo concepto (ver Castano et al. 2002). 132 una orientación a los pobres porque el Gini de los servicios es aún positivo (Tabla 1). Los servicios de menor progresividad que los antes mencionados son: el acceso al SRI, al IESS, a la matriculación vehicular, al correo, a las inspectorías del trabajo y a la educación superior. Esto se debe a la naturaleza misma de estos servicios. En el caso de los dos primeros son obligaciones de la población que ejerce una actividad económica o posee automóvil. Mientras que, los servicios de correspondencia, derechos laborales y educación superior estarían relacionados con el supuesto de a mayor ingreso, mayor educación y más conocimiento de los derechos legales. En suma, la Tabla 1 muestra la distribución de los servicios públicos en la población. Esta distribución se comparó con la concentración del ingreso per cápita, probando que todos los servicios encuestados son progresivos y algunos propobres (transferencias estatales, salud y transporte). Sin embargo, como se mencionó en metodología, el BIA no permite conocer el efecto de incrementar el acceso, ya que expone la situación en el tiempo de análisis. Por lo tanto, se utiliza MBIA para conocer dicho efecto de los servicios encuestados. Para una mejor comprensión de los resultados marginales, se normalizó los coeficientes de la Ecuación (3); es decir, el promedio es igual a uno y su sumatoria es igual a cinco. Al igual que el BIA, los resultados marginales se presentan en la tabla 2 divididos en quintiles para los servicios encuestados. Al conocer si el hogar ha utilizado algún servicio público, la ampliación del acceso de todos estos beneficiaría más a los quintiles intermedios (2-4) que al promedio. Se podría decir que el beneficio se daría a la clase media de la población. A pesar que el grupo de ingresos 3 tiene un coeficiente menor a uno (0,94), el resultado en conjunto muestra que es parte del mayor beneficio (Tabla 2). Al aumentar el acceso, el único servicio que tendría un efecto pro pobre sería las transferencias gubernamentales, como el BDH. Se observa que el coeficiente del primer quintil es 1,45 y va disminuyendo a 0,77 hasta el último quintil. Esto podría deberse a su naturaleza porque está dirigido a los estratos con más bajo ingreso. Por el contrario, los servicios del SRI, de las inspectorías de trabajo, de la policía, de la matriculación vehicular, los créditos públicos y los correos muestran un beneficio a favor de los últimos quintiles más que el promedio cuando se incrementa el acceso (Tabla 2). La educación pública básica-secundaria y el transporte público son los servicios que tienen un beneficio sobre la clase media encuestada. Estos servicios utilizan la mayoría de la población, por lo que su aumento beneficiaría a la clase media (quintiles medios) ya que el 83 % de los ecuatorianos, que viven en el área urbana, pertenecen a esta clase (INEC 2011). Los servicios que beneficiarían a los quintiles extremos (uno y quinto) son la educación superior, la salud pública y del IESS, si se incrementa su acceso. Una explicación, para que estos estratos tengan un mayor acceso que la media, sería la política de gratuidad del gobierno en la educación, de la salud pública y de la atención del IESS para todos los dependientes del hogar. Además, los hogares del Revista Politécnica – Marzo 2016, Vol. 37, No. 2 133 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ quintil 5 podrían sustituir su gasto en educación, salud y seguro privados para utilizar lo que provee el Estado. El acceso a los servicios depende de la naturaleza. Algunos fueron específicamente dirigidos a estratos más pobres para que su bienestar aumente, por ejemplo, el bono de desarrollo humano o el programa de vivienda social. Otros servicios están relacionados con los deberes fiscales de la población como el pago de impuestos. Finalmente, se debe considerar que hay servicios de uso masivo que su aumento beneficiarían más a la clase media que a otros. Tabla 1. Análisis de la incidencia del beneficio de los servicios públicos. Pregunta o variables Quintil 1 Quintil 2 Quintil 3 Quintil 4 Quintil 5 Gini Kakwani Ingreso mínimo registrado (dólares) 1,00 75,56 123,60 190,17 330,33 Ingreso máximo registrado (dólares) 75,50 123,33 190,00 330,00 10.470,00 Ingreso 4,21 8,29 12,71 20,73 54,06 0,4904 6.1 Ha utilizado al SRI 7,42 11,43 15,92 23,81 41,41 0,3422 -0,1482 6.2 Ha utilizado educación pública básica - secundaria 19,66 20,32 19,95 20,02 20,05 0,0115 -0,4789 6.3 Ha utilizado educación pública superior 8,74 12,18 16,56 24,91 37,61 0,2987 -0,1917 6.4 Ha utilizado salud pública 20,59 20,81 20,19 20,09 18,32 -0,0162 -0,5066 6.5 Ha utilizado inspectorías del trabajo 9,16 11,93 16,02 22,42 40,47 0,2987 -0,1916 6.6 Ha utilizado a la policía 16,89 18,07 19,31 21,74 24,00 0,0534 -0,4370 6.7 Ha utilizado a la matriculación vehicular 7,89 11,20 15,36 22,92 42,63 0,3345 -0,1559 6.8 Ha utilizado al registro civil 19,57 19,82 19,62 20,08 20,91 0,0093 -0,4811 6.9 Ha utilizado al IESS (salud) 8,77 13,44 18,26 24,82 34,71 0,2665 -0,2239 6.10 Ha utilizado al IESS (pensiones jubilares,..) 7,75 11,93 16,79 23,94 39,58 0,3113 -0,1791 6.11 Ha utilizado transporte público 20,07 20,20 20,02 20,25 19,45 -0,0002 -0,4906 6.12 Ha utilizado créditos públicos 14,29 15,01 17,53 21,47 31,70 0,1810 -0,3094 6.13 Ha utilizado carreteras públicas 19,48 19,64 19,67 20,22 20,99 0,0148 -0,4756 6.14 Ha utilizado o recibido el BDH, vivienda, etc. 35,32 25,44 19,02 12,71 7,50 -0,2574 -0,7478 6.15 Ha utilizado los correos del Ecuador 8,05 10,94 15,15 22,64 43,21 0,3152 -0,1752 Ha utilizado algún servicio público 19,85 20,04 19,73 20,14 20,24 0,0039 -0,4865 Tabla 2. Análisis marginal de la incidencia del beneficio de los servicios públicos. Pregunta o variable Quintil 1 Quintil 2 Quintil 3 Quintil 4 Quintil 5 Ingreso mínimo registrado (dólares) 1,00 75,56 123,60 190,17 330,33 Ingreso máximo registrado (dólares) 75,50 123,33 190,00 330,00 10470,00 6.1 Ha utilizado al SRI 0,98 0,91 0,81 0,81 1,49 6.2 Ha utilizado educación pública básica - secundaria 0,79 1,04 1,11 1,14 0,91 6.3 Ha utilizado educación pública superior 1,13 0,76 0,77 0,83 1,52 6.4 Ha utilizado salud pública 1,21 0,68 0,92 0,97 1,22 6.5 Ha utilizado inspectorías del trabajo 0,91 0,81 0,87 0,98 1,43 6.6 Ha utilizado a la policía 0,95 0,98 0,97 1,02 1,08 6.7 Ha utilizado a la matriculación vehicular 0,94 0,81 0,82 0,79 1,63 6.8 Ha utilizado al registro civil 0,86 1,10 0,98 1,09 0,98 6.9 Ha utilizado al IESS (salud) 1,09 0,84 0,88 0,95 1,25 6.10 Ha utilizado al IESS (pensiones jubilares,..) 1,00 0,82 0,87 0,84 1,48 6.11 Ha utilizado transporte público 0,95 1,16 0,88 1,23 0,78 6.12 Ha utilizado créditos públicos 0,97 0,97 0,93 1,09 1,04 6.13 Ha utilizado carreteras públicas 0,98 1,11 0,89 1,05 0,97 6.14 Ha utilizado o recibido el BDH, vivienda, etc. 1,45 1,00 0,95 0,83 0,77 6.15 Ha utilizado los correos del Ecuador 0,89 0,76 0,74 0,78 1,83 Ha utilizado algún servicio público 0,93 1,21 0,94 1,02 0,90 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ 134 5. CONCLUSIONES Y RECOMENDACIONES REFERENCIAS Este estudio presenta un análisis distributivo del gasto y los servicios públicos para Ecuador, en el año 2013. Se utilizó la metodología BIA y su extensión marginal para identificar cómo están distribuidos los servicios públicos respecto al ingreso per cápita del hogar. Para el efecto, se utilizaron los datos de la ENEMDU. Ajwad, Mohamed Ihsan, y Quentin Wodon. (2001). Marginal Benefit Incidence Analysis Using a Single Cross-Section of Data. Entre los resultados más relevantes, se encuentra que la distribución general de los servicios encuestados, es equitativa; es decir, cada quintil de la población utiliza el servicio en una proporción similar a los otros. Además, todos los servicios son progresivos con respecto al ingreso per cápita del hogar. La naturaleza del servicio incide en la distribución. Por ejemplo, los servicios de educación, salud, transporte, registro civil y carreteras tienen un acceso similar entre todos los grupos de ingreso. Mientras que los servicios que están vinculados con deberes, como las obligaciones tributarias o de seguridad social, muestran una mayor utilización por parte de los quintiles más altos. Las transferencias enfocadas a erradicar la pobreza, en cambio, tienen una naturaleza propobre, evidenciando la eficiencia de los programas. En este sentido, la ampliación general de los servicios considerados en la Encuesta beneficiaría más a la clase media que al resto de la población. El único programa que tendría un beneficio propobre sería las transferencias monetarias condicionadas (BDH, crédito social de vivienda, etc.). Mientras que, los servicios del SRI, IESS, Policía e inspectorías del trabajo, entre otros, generarían mayor utilización por parte de los quintiles altos de población. La educación y el transporte muestran un mayor beneficio para los grupos intermedios respecto al promedio. Además, la salud pública, la educación superior, y otras, podrían mejorar el bienestar de los extremos de la población. El incremento del gasto público en la dotación de un servicio, mediante el mayor acceso, generará diferentes resultados en el bienestar de los ciudadanos. Además, se debe identificar qué servicio beneficiará más a toda población. De manera general, se podría recomendar dirigir los recursos fiscales a los servicios más progresivos, por ejemplo, disminuir los fondos para correos o matriculación vehicular para expandir el beneficio en salud pública o en las transferencias monetarias. Antes de cualquier modificación se debe considerar la naturaleza de este y el objetivo de la política pública. Ajwad, Mohamed Ihsan, y Quentin Wodon. (2002). “Who Benefits from Increased Access to Public Services at the Local Level? A Marginal Benefit Incidence Analysis for Education and Basic Infrastructure.” World Bank Economists’ Forum 2: 155–75. Almeida, María Dolores, Carlos Marx Carrasco, Nicolás Oliva, and Paúl A. Carrillo. (2012). “Ingresos Y Gasto Público En Democracia: De La Rigidez Fiscal Al Pago de La Deuda Social.” En Una Nueva Política Fiscal Para El Buen Vivir. La Equidad Como Soporte Del Pacto Fiscal, editado por SRI, 111–56. Ediciones Abya-Yala. Amarante, Verónica. (2007). El Impaqcto Distributivo Del Gasto Público Social: Aspectos Metodológicos Para Su Medición Y Antecedentes Para Uruguay. DT 08/07. Documentos de Trabajo. BID. (2014). “La Realidad Fiscal: Una Introducción a Los Problemas Y Políticas Fiscales En América Latina.” Banco Interamericano de Desarrollo (BID). CAF (ed.) (2012). Finanzas Públicas Para El Desarrollo : Fortaleciendo La Conexión Entre Ingresos Y Gastos. Bogotá, Colombia: Corporación Andina de Fomento (CAF). http://publicaciones.caf.com/media/17942/red_book_2012_13-junio.pdf. Castano, Ramon A, Jose J Arbelaez, Ursula B Giedion, y Luis G Morales. (2002). “Equitable Financing, out-of-Pocket Payments and the Role of Health Care Reform in Colombia” Health Policy and Planning 17 (suppl 1): 5–11. doi:10.1093/heapol/17.suppl_1.5. Davoodi, Hamid R., Erwin R. Tiongson, and Sawitree S. Asawanuchit. (2003). How Useful Are Benefit Incidence Analyses of Public Education and Health Spending? WP/03/227. IMF Working Papers. Vol. 03. Demery, Lionel. (2003). “Analyzing the Incidence of Public Spending.” En The Impact of Economic Policies on Poverty and Income Distribution, editado por Francois Bourguignon and Luiz Pereira da Silva, 41–68. The World Bank and Oxford University Press. Duclos, Jean-Yves, y Abdelkrim Araar. (2006). Poverty and Equity: Measurement, Policy and Estimation with DAD. Edited by Jacques Silber. Canada: Springer. INEC. 2011. Encuesta de Estratificación Del Nivel Socioeconómico NSE 2011. Presentación Agregada. http://www.ecuadorencifras.gob.ec/encuestade-estratificacion-del-nivel-socioeconomico/. Lanjouw, Peter, and Martin Ravallion. 1999. “Benefit Incidence, Public Spending Reforms, and the Timing of Program Capture.” The World Bank Economic Review 13 (2): 257–73. http://www.jstor.org/stable/3990098 . Musgrave, Richard. (1968). Teoría de La Hacienda Pública. Edited by Jose María Lozano Irueste. España: McGraw-Hill. Musgrave, Richard y Peggy Musgrave. (1992). Hacienda Pública: Teoría Y Práctica. Edited by José María Lozano Irueste. 5th ed. España: McGrawHill. Samuelson, Paul A. (1954). “The Pure Theory of Public Expenditure.” The Review of Economics and Statistics 36 (4): 387–89. AGRADECIMIENTO El autor agradece los comentarios de Gabriela Fernández, Stephanie Espín, Andrew Blackman, Isabel García, Ana Rivadeneira y Tania Guerra. Un especial agradecimiento a Stephen Younger, profesor de Ithaca College, por sus aclaraciones y comentarios en la metodología, y a Jean-Yves Duclos y Abdelkrim Araar por la ayuda en el manejo del módulo Benefit analysis del paquete DASP en Stata. Sen, Amartya. (1992). Inequality Reexamined. New York, Cambridge: Harvard University Press. Stiglitz, Joseph. (2000). Economia Del Sector Publico. Edited by Antoni Bosch. Younger, Stephen. (2003). “Benefits on the Margin: Observations on Marginal Benefit Incidence.” The World Bank Economic Review 17 (1): 89– 106. doi:10.1093/wber/lhg009. Revista Politécnica – Marzo 2016, Vol. 37, No. 2 135 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ APÉNDICE A CURVAS DE CONCENTRACIÓN DE LOS SERVICIO PÚBLICOS Figura A.4. Curvas de concentración de haber utilizado la educación pública superior. Figura A.1. Curvas de concentración de haber utilizado algún servicio público. Figura A.5. Curvas de concentración de haber utilizado la salud pública. Figura A.2. Curvas de concentración de haber utilizado los servicios del SRI. Figura A.6. Curvas de concentración de haber utilizado las inspectorías de trabajo. Figura A.3. Curvas de concentración de haber utilizado la educación pública básica-secundaria. Figura A.7. Curvas de concentración de haber utilizado el servicio de la Policía. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Análisis del beneficio marginal del gasto público y sus servicios _________________________________________________________________________________________________________________________ Figura A.8. Curvas de concentración de haber utilizado el servicio de matriculación vehicular. Figura A.12. Curvas de concentración de haber utilizado el transporte público. Figura A.9. Curvas de concentración de haber utilizado el registro civil. Figura A.13. Curvas de concentración de haber utilizado los créditos públicos. Figura A.10. Curvas de concentración de haber utilizado el servicio de salud del IESS. Figura A.14. Curvas de concentración de haber utilizado las carreteras públicas. Figura A.11. Curvas de concentración de haber utilizado los prestaciones previsionales del IESS. 136 Figura A.15. Curvas de concentración de haber utilizado o recibido alguna transferencia (BDH, vivienda, etc). Revista Politécnica – Marzo 2016, Vol. 37, No. 2 137 Carrillo Maldonado Paúl A. _______________________________________________________________________________________________________________________________ Figura A.16. Curvas de concentración de haber utilizado los correos del Ecuador. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital _________________________________________________________________________________________________________________________ 138 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital Galvis Andrés1, 2; Galindo Edwin3 1Universidad de las Américas, Escuela de Ciencias Físicas y Matemáticas, Quito, Ecuador 2Universidad de las Fuerzas Armadas-ESPE, Departamento de Ciencias Exactas, Quito-Ecuador. 3Escuela Politécnica Nacional, Facultad de Ciencias, Quito, Ecuador. Resumen: La valoración de activos es uno de los pilares fundamentales de la economía financiera, permitiéndoles a los agentes del mercado elaborar estimaciones insesgadas del precio y estructurar carteras de valores que maximizan la rentabilidad esperada del inversor. Debido a la ausencia de mercado, se propone un modelo basado en consumo intertemporal para estimar el valor corporativo, la base conceptual del modelo se enfoca en la aplicación de las series de tiempo estacionarias para estimar el flujo de caja libre y de los axiomas de Von Neumann-Morgenstern para cuantificar el factor de descuento estocástico. Por último, se define el Riesgo de Valor-RiskV como una medida de riesgo corporativo la cual mide la potencial destrucción de valor a consecuencia de la variabilidad de su estructura operacional y financiera, y de las posiciones estratégicas de la compañía. Palabras clave: Valoración, Riesgo, Función de Utilidad, Series de Tiempo, Opciones Reales, Flujo de Caja Libre. The Risk of Value and its Quantification by Capital Stochastic Structure Abstract: The asset pricing is one of the fundamental pillars of the financial economics, allowing market players develop unbiased estimates of the price and will structure portfolios that maximize expected return of the investor. A consumption-based model is proposed to estimate corporate value when the company has a fixed component and a soft component due to the strategic opportunities available. The conceptual basis of the model focuses on the application of stationary time series to estimate the free cash flow and of the Von Neumann-Morgenstern axioms for quantifying the stochastic discount factor of both components. Finally, the RiskV value is defined as a measure of corporate risk which measures the potential destruction on corporate value as a result of the variability of its operational and financial structure, and strategic positions in the company. Keywords: Asset Pricing, Risk, Utility Functions, Time Series, Real Options, Free Cash Flow. 1 1. INTRODUCCIÓN Un gran número de investigadores, docentes y ejecutivos dedicados a la valoración de empresas y al estudio profundo de las fuentes de valor, han elaborado una densa bibliografía de teorías, artículos, opiniones y métodos que facilitan la valoración de proyectos y de empresas no financieras en determinados contextos políticos, económicos y sociales. La búsqueda de mejores modelos y métodos de valoración han ocasionado que el estado del arte se encuentre sumergido en un problema de superficialidad, discrecionalidad, subjetividad y arbitrariedad de la valoración. La incorporación de las Normas Internacionales de Información Financiera - NIIF y el cambio del paradigma de la ecuación patrimonial, han influido en la forma de estudiar la información financiera, dejando de lado el estudio de las transacciones estáticas para dar paso a un estudio de movimiento continuo y caótico. Lo más notable en las investigaciones llevadas a cabo en la última década, es la marcada discrepancia entre los mismos profesionales. No existe un consenso en la definición de valor, ocasionando la formulación de hipótesis o supuestos, que luego tienen que encajar bruscamente en modelos inadecuados para el medio en donde se desempeña el proyecto y/o empresa, la transición de los métodos contables, pasando por el devaluado método de flujo de caja descontado, para aterrizar en el llamativo método de opciones reales. Han perjudicado notablemente la credibilidad y la precisión de las valoraciones de activos en los mercados financieros internacionales. La formulación de modelos de riesgo privados y no bancarios, dará un impulso al análisis financiero moderno y permitirán una mejor estimación de parámetros de la compañía, cambiando la política de alcance de objetivos hacia una política en función de la capacidad productiva, involucrando factores de riesgo internos, externos, de liquidez, rentabilidad, [email protected]. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 139 Galvis Andrés1, 2; Galindo Edwin3 _______________________________________________________________________________________________________________________________ endeudamiento y por supuesto de flexibilidad. La formulación de un modelo de riesgo no necesariamente gaussiano, autoorganizado, bajo hipótesis de mercado semifuertes, utilizando la microeconomía como plataforma conceptual del estudio empresarial y evaluando los diferentes escenarios inciertos mediante simulación, permitirán que los métodos de valoración tengan convergencia y brinden la información pertinente y a tiempo continuo, para que los inversores tomen las decisiones de inversión y financiación óptimas que tengan como fin generar valor y riqueza a los propietarios. La modificación del concepto de valor como una función del valor operacional y el valor de flexibilidad de un proyecto de inversión y financiación en tiempo discreto o continuo, además de obtener una medida de riesgo mediante el estudio de la distribución de probabilidad del valor de la compañía con el correspondiente estudio de los componentes del mismo; permitirá identificar, cuantificar y controlar los factores de riesgos, que con la estimación de su dinámica y el análisis de sensibilidad dará como resultado los intervalos de confianza de valor justo para la valoración de empresas. 2. MARCO TEÓRICO/METODOLOGÍA 2.1. La inversión y la financiación corporativa La empresa puede definirse, desde un punto de vista económico, como un conjunto de factores productivos coordinados, cuya función es producir y cuya finalidad viene determinada por el sistema de organización social y económica en que se halle inmersa. El objeto formal de la Economía de la Empresa es formular leyes de equilibrio, pero no en sentido general y abstracto, sino en tanto es susceptible tal equilibrio de aplicaciones concretas en el orden microeconómico de la empresa (Suarez, 2003). Considerando que la empresa es una sucesión en el tiempo de proyectos de inversión y financiación, su longevidad está condicionada cuando la rentabilidad de las inversiones realizadas supere el costo de capital utilizado para su financiación. Sin embargo, el alcance de aquel objetivo requiere direccionar todas las áreas de la compañía de tal manera que se identifiquen las metas y restricciones, la naturaleza e importancia de los beneficios, comprender los incentivos y los mercados, considerar el valor del dinero en el tiempo y por último, aplicar el análisis marginal (Baye, 2006). Decidir qué proyectos de inversión debe realizar, considerando la limitación de los recursos y el costo de utilizarlos están determinados por los conceptos del Capital Budgeting o Presupuesto de Capital, Estructura de Capital y Capital de Trabajo (Ross et al., 2010). Sin embargo, la literatura en finanzas corporativas resta importancia a la relación entre los anteriores conceptos y en algunos casos se consideran independientes, en el presente trabajo se afirma que el presupuesto de capital es el eje central en la administración financiera puesto que permite evaluar la gestión gerencial y determinar el valor intrínseco de las compañías. La siguiente definición y proposición fue planteada en (Greenwood, 2010). Definición 1. El flujo de Caja libre, FCF, es la cantidad de fondos disponibles en efectivo para todos los inversionistas de una empresa después de pagar impuestos y cumplir con las necesidades de inversión, ver Ecuación (1). 𝑔 𝐹𝐶𝐹𝑡 = 𝐶𝐹𝑡𝑠𝑎𝑙𝑒𝑠 − 𝐶𝐹𝑡 − 𝑂𝑝𝑒𝑥𝑡 − 𝐶𝑎𝑝𝑥𝑡 − 𝐶𝐹𝑡𝑡𝑎𝑥𝑒𝑠 (1) 𝑔 Donde 𝐶𝐹𝑡𝑠𝑎𝑙𝑒𝑠 , 𝐶𝐹𝑡 , 𝑂𝑝𝑒𝑥𝑡 , 𝐶𝑎𝑝𝑥𝑡 y 𝐶𝐹𝑡𝑡𝑎𝑥𝑒𝑠 es el movimiento de efectivo por las ventas, por costo de ventas, por el gasto de operación, por el movimiento de capital, y por el gasto en impuestos, respectivamente. Y cumple con: Proposición 1. Una empresa privada con fines de lucro e independiente de su estructura financiera posee un Flujo de Caja Libre tal que, ver Ecuación (2): 𝐹𝐶𝐹𝑡 = (1 − 𝜏) × 𝐸𝐵𝐼𝑇𝑡 + 𝐷𝑒𝑝𝑡 − 𝐶𝑎𝑝𝑥𝑡 − ∆𝑁𝑊𝐶𝑡 (2) Dónde 𝜏, tasa de impuestos; 𝐸𝐵𝐼𝑇𝑡 , utilidad antes de intereses e impuestos; 𝐷𝑒𝑝𝑡 , depreciación, amortización, provisiones y movimientos no efectivos; 𝐶𝑎𝑝𝑥𝑡 , gastos de capital; por último, ∆𝑁𝑊𝐶𝑡 , variación de capital de trabajo neto operativo. 2.2. Flujo de caja libre y la rentabilidad corporativa Considerando la proposición (1) del flujo de caja libre, se puede apreciar que no es sólo el resultado de la aplicación del principio de causación contable, es más que eso, es el rendimiento financiero que se obtiene como consecuencia de una serie de inversiones realizadas por los dueños, en un periodo de tiempo determinado. Es decir, el FCF es el dinero disponible para los dueños y sus acreedores financieros como retorno de sus inversiones. Proposición 2. Si una empresa posee flujo de caja libre, FCF, y además posee costos hundidos o inversiones previas, 𝐼, entonces la relación entre ambos rubros es una rentabilidad corporativa, 𝑅𝑐𝑡 , tal que, ver Ecuación (3): 𝑅𝑐𝑡 = 𝐹𝐶𝐹𝑡 𝐼𝑡−1 (3) Sin embargo, si se tiene una secuencia de flujos de un proyecto cuya inversión inicial fue de 𝐼0 unidades monetarias, entonces la rentabilidad intrínseca está dada por la Tasa Interna de Retorno-IRR (Hazel, 2003). De igual manera, Fisher popularizo en 1907 el concepto del capital ficticio formulado por Marx en el año de 1894, y lo denominó el Valor Presente Neto-NPV (Fisher, 1907). Tales ideas, dotaron de herramientas a los economistas financieros de la época, los cuales lograron abordar los problemas alrededor de la valoración de activos. En 1938 John Burr Williams planteó el primer modelo de valoración de acciones utilizando el concepto del NPV a los dividendos esperados, refiriéndose a él como el valor intrínseco (Williams, 1938); luego, Harry Markowitz afirmó que el concepto de la teoría del portafolio que él formuló se debe a los trabajos de Williams (Markowitz, 1990); y por último, la fórmula de Gordon-Shapiro que es una extensión del modelo del NPV propuesto igualmente por Williams (Gordon y Shapiro, 1956). Pero sin lugar a dudas, el mayor aporte a la economía financiera de la empresa lo realizó Joel Dean (1951), cuando aplicó el concepto del NPV y de la IRR a los proyectos que llevan a cabo las empresas, definiéndolo como el Presupuesto de capital. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital _________________________________________________________________________________________________________________________ 2.3. Presupuesto de capital La toma de decisiones gerenciales gira alrededor de dos ejes fundamentales: la inversión y la financiación; de esta manera, evaluar la calidad de tales decisiones implica aplicar el criterio de NPV o IRR, permitiendo definir una medida de riqueza y de rentabilidad para aquellos proyectos disponibles para la compañía. No obstante, ambas medidas obligan al gerente no sólo a realizar estimaciones del flujo de caja libre y del costo de capital, sino también de la incertidumbre asociada a tales estimaciones futuras. Para llevar a cabo los planes de inversión, la compañía dispone de los recursos que puede obtener de la emisión de deuda, de las acciones preferentes, de las acciones comunes y de las utilidades retenidas y a cada una de ellas le corresponderá un costo de oportunidad 𝑟𝑑 , 𝑟𝑝 , 𝑟𝑟𝑒 , 𝑟𝑠 , respectivamente; que al final configurará la tasa promedio ponderada de capital WACC, 𝑟𝑤 rw, de todas las fuentes de financiación de la compañía. Definición 2. El Wacc Es un promedio ponderado entre un costo y una rentabilidad exigida, representa la tasa a la que se debe descontar el FCF para obtener el mismo valor de las acciones que proporciona el descuento de los flujos para el accionista, ver Ecuación (4): 𝑅𝑤 = 𝑤𝑑 𝑟𝑑 (1 − 𝜏) + 𝑤𝑝 𝑟𝑝 + 𝑤𝑒 (𝑟𝑟𝑒 + 𝑟𝑠 ) (4) Donde, {𝑤𝑑 , 𝑤𝑝 , 𝑤𝑒 } son los pesos de las fuentes de financiación y 𝑤𝑑 + 𝑤𝑝 + 𝑤𝑒 = 1. Considerando que el administrador financiero da prioridad a las inversiones más rentables y a las fuentes de financiación más baratas para la compañía, la empresa ira asignando recursos a tales proyectos hasta que el costo de adquirir aquellos recursos (WACC) iguale la rentabilidad de los mismos (IRR). A este problema se denomina el Presupuesto de Capital o Capital Budgeting. La solución a tal problema de maximización implica establecer los siguientes supuestos: los proyectos no son necesariamente mutuamente excluyentes, todos los proyectos disponibles tienen niveles de riesgo diferentes, se dispone de los recursos para llevar a cabo el proceso de inversión, los flujos generados por un proyecto liberan recursos para llevar a cabo otros proyectos, el efecto de las decisiones estratégicas y de investigación y desarrollo se encuentran dentro del flujo de caja libre agregado de la compañía, el administrador selecciona los proyectos más rentables para la compañía, el flujo de caja descontado es el indicador por excelencia para evaluar los proyectos disponibles para la compañía debido al problema de escala y de temporalidad que presenta la IRR, y por último no se considera el efecto inflacionario. . 2.4. Teoría de precios de activos La teoría del precio de los activos busca comprender el valor o el precio de un activo a partir de sus rendimientos inciertos, del horizonte de inversión y del riesgo involucrado en el mismo, siendo esto último lo que determina su interés y su intercambio. A principio del presente siglo el profesor 140 Cochrane de la Universidad de Chicago estableció la ecuación fundamental de valoración y su principio organizador, bajo el argumento de que los precios de los activos son iguales al valor esperado de sus flujos futuros de caja descontados (Cochrane, 2005). Esto es: Definición 3. La Ecuación Fundamental de Valoración, BPA, se define como el valor esperado del producto entre el flujo de caja, 𝑥, y el factor de descuento estocástico, 𝑚, de cualquier activo, tal que, ver Ecuación (5): 𝑝 = 𝐸(𝑚𝑥) (5) Su simplicidad y universalidad, permiten separar los supuestos económicos de la representación empírica que se pretende analizar, esto permitirá hacer uso de la geometría estadopreferencia o media-varianza. Por su parte, los métodos empíricos tales como las series de tiempo, los métodos generalizados de momentos y de máxima verosimilitud, entre otros, ajustarán los parámetros libres del modelo de tal manera que se minimice el error de estimación del valor del activo. No obstante, una condición necesaria de optimalidad para tal modelo se le denomina la transversalidad. Definición 4. La condición de transversalidad es una condición para garantizar tanto la optimalidad del proceso como la solución cerrada de modelos de optimización que dependen de horizontes de tiempo al infinito; específicamente para el modelo basado en consumo se define como, ver Ecuación (6): lim 𝐸𝑡 [𝑚𝑡,𝑡+𝑗 𝑝𝑡+𝑗 ] = 0 𝑗→∞ (6) 2.3. Modelo de consumo intertemporal En general, los modelos que representar el comportamiento de un consumidor racional buscan maximizar un función de utilidad de consumo intertemporal, la cual es cóncava, estrictamente creciente y diferenciable (Sargent, 1987). Esto es: ∞ Maximizar 𝐸0 ∑ 𝛽 𝑡 𝑢(𝑐𝑡 ) 0 < 𝛽 < 1, 𝑡=0 donde 𝑐𝑡 es el consumo del individuo en tiempo 𝑡 y 𝛽 es la tasa de impaciencia. Un caso particular de la BPA proviene de la condición de primer orden para un problema de consumo intertemporal de un individuo poseedor de riqueza limitada; por ello, la decisión de invertir en un determinado activo depende de su utilidad marginal y de los flujos generados por aquel activo; por lo tanto, el precio de un activo está determinado por el valor esperado de sus flujos de caja, 𝑑, descontados al factor de impaciencia de consumo intertemporal, 𝛽, y la tasa marginal de sustitución de consumo intertemporal dada por la relación de utilidades marginales de consumo, 𝑢′(𝑐𝑡 ). Esto es, ver Ecuación (7): ∞ 𝑝𝑡 = 𝐸𝑡 ∑ 𝛽 𝑗 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 𝑗=1 𝑢′(𝑐𝑡+𝑗 ) 𝑑 , 𝑢′(𝑐𝑡 ) 𝑡+𝑗 (7) 141 Galvis Andrés1, 2; Galindo Edwin3 _______________________________________________________________________________________________________________________________ Siempre y cuando se cumpla la condición de transversalidad. Esto es: lim 𝐸𝑡 [𝛽 𝑗 𝑗→∞ 2.4. Ecuación de valor corporativo 𝑢′(𝑐𝑡+𝑗 ) 𝑝 ] = 0. 𝑢′(𝑐𝑡 ) 𝑡+𝑗 Se puede observar como el producto entre el factor de impaciencia y la tasa marginal de sustitución de consumo intertemporal representa el factor de descuento estocástico, 𝑚𝑡,𝑡+𝑗 . Por otra parte, la solución a tal problema de optimización revela dos resultados de suma importancia, el primero corresponde al principio de equivalencia financiera, mientras el segundo configura la tasa libre de riesgo (Cochrane, 2005). Proposición 3. El precio de un activo en 𝑡 es igual al valor esperado del producto entre al factor de descuento estocástico de 𝑡 a 𝑡 + 1 y la suma entre el precio del activo y el dividendo en el periodo 𝑡 + 1. Esto es, ver Ecuación (8): 𝑝𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+1 (𝑝𝑡+1 + 𝑑𝑡+1 )]. partir de las especializaciones que se puedan realizar al factor de descuento estocástico, 𝑚, y al flujo de caja, 𝑑. (8) Todo lo anterior, permite configurar una medida de valoración de empresas bajo un entorno de riesgo. Definición 5. Se le denomina la ecuación de valor corporativo a la estimación del valor presente, 𝑉𝑡 , de los flujos futuros de caja, 𝐶𝐹, al factor de descuento estocástico, 𝑚, para un horizonte infinito de valoración. Si una empresa es una activo que no posee un mercado en el cual su precio logre ser determinado por el libre juego de oferta y demanda, y además los pocos oferentes y demandantes del activo estructuran sus expectativas de consumo a partir de la generación de flujo de caja de la compañía, lo que implica que su poder de negociación se limita sólo al intercambio de tiempo, incertidumbre, opciones e información a través flujo de caja, entonces el problema de valoración de empresas consiste en: ∞ Proposición 4. Si un activo genera un flujo de caja cierto entonces existe una tasa de libre de riesgo representada por el recíproco del valor esperado del factor de descuento estocástico. Tal que, ver Ecuación (9): 𝑓 𝑅𝑡,𝑡+1 = 1 𝐸𝑡 [𝑚𝑡,𝑡+1 ] . Maximizar Proposición 5. Si un agente es neutral al riesgo, no posee impaciencia y no percibe dividendos entonces el precio de un activo mediante el enfoque basado en consumo seguirá una caminata aleatoria siempre y cuando los choques aleatorios posean media cero y varianza constante, ver Ecuación (10): 0 < 𝛽 < 1, 𝑗=0 Sujeto a: 𝑐𝑡 = 𝑒𝑡 − 𝑉𝑡 𝜉 𝑐𝑡+𝑗 = 𝑒𝑡+𝑗 + 𝐶𝐹𝑡+𝑗 𝜉, (9) Por otra parte, si se considera la existencia de un mercado en el cual el activo puede ser negociado y además los agentes que participan en aquel mercado son neutrales al riesgo, podemos concluir que la dinámica del precio del activo posee una estructura aleatoria; en particular, una martingala (Cochrane, 2005). 𝐸𝑡 ∑ 𝛽 𝑗 𝑢(𝑐𝑡+𝑗 ) donde el agente posee un nivel de renta, 𝑒, un nivel de consumo, 𝑐, un volumen de inversión, 𝑉𝜉, y un retorno esperado de la inversión o flujo de caja, 𝐶𝐹. Proposición 6. Si una empresa genera flujo de caja y posee al menos una fuente de financiación la cual cumple con las condiciones de preferencias regulares y admite una función de utilidad entonces mediante el enfoque basado en consumo su medida de valor estará determinada por la Ecuación (11): ∞ 𝑉𝑡 = 𝐸𝑡 ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 . (11) 𝑗=1 𝑝𝑡+1 = 𝑝𝑡 + 𝜀𝑡+1 . (10) En general, la expresión (7) no asume: mercados completos, normalidad de factor y del flujo, funciones de utilidad cuadrática, mercados en equilibrio o que los inversionistas perciben una renta propia. De hecho, se aplica a cada inversor y activo en particular, sean bonos, acciones, proyectos, etc., independientemente de la presencia de otros inversores o activos, de una función de utilidad monótona y cóncava, o de la existencia de una ley de probabilidad para el retorno o el flujo de caja generado por aquel activo; en particular, el hecho de involucrar momentos condicionales no implica asumir que los retornos son independientes e idénticamente distribuidos (i.i.d). La universalidad de tal ecuación ocasiona un pobre ajuste en la práctica, motivando la búsqueda de modelos alternativos a Para 𝑚 > 0 y 𝐶𝐹 ∈ ℝ siempre y cuando se cumpla la condición de transversalidad. De forma equivalente, podemos expresar el valor corporativo en 𝑡 como el valor esperado del producto entre el factor de descuento y el valor corporativo en 𝑡 + 1. Esto es, Ecuación (12): 𝑉𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+𝑗 (𝑉𝑡+1 + 𝐶𝐹𝑡+1 )]. (12) Además, cuando el activo es negociado en un mercado eficiente, el gran número de competidores y su poder de negociación conducen sus estimaciones del valor intrínseco, 𝑉𝑡, a un precio de equilibrio, 𝑝𝑡 ; esto significa que ante información perfecta todos los agentes del mercado poseen la misma percepción del activo y su valoración difícilmente se Revista Politécnica - Marzo 2016, Vol. 37, No. 2 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital _________________________________________________________________________________________________________________________ ∞ diferenciará de su competidor. La siguiente proposición nos indica que el valor esperado del valor corporativo debe aproximarse al precio de dicho activo. Proposición 7. Sea 𝑉̃𝑡 el valor particular de una realización 𝑤 en el periodo 𝑡, ver Ecuación (13): 𝑉𝑡 = ∑ 1 𝑓 𝑅 𝑗=1 𝑡,𝑡+𝑗 𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] . 142 (18) Proposición 12. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables aleatorias no independientes, entonces, Ecuación (19): ∞ ∞ 𝑉̃𝑡 (𝑤) = ∑ 𝑚𝑡,𝑡+𝑗 (𝑤)𝐶𝐹𝑡+𝑗 (𝑤). (13) 𝑉𝑡 = ∑ [𝐸𝑡 [𝑚𝑡,𝑡+𝑗 ] + 𝛽𝐶𝐹𝑡+𝑗 𝜆𝐶𝐹𝑡+𝑗 ] 𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] . (19) 𝑗=1 𝑗=1 Si 𝑤 ∈ Ω, entonces 𝑉̃𝑡 (𝑤) será una variable aleatoria en 𝑡 y por lo tanto, ver Ecuación (14): 𝑉𝑡 = 𝐸𝑡 [𝑉̃𝑡 ] → 𝑝𝑡 , (14) siempre y cuando se cumpla la condición de transversalidad. La siguiente variante de la ecuación de valor corporativo coincide con la Ecuación (11). Proposición 13. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables aleatorias bajo ausencia de arbitraje y de un mercado de negociación de activos, entonces, Ecuación (20): ∞ 2.4. Supuestos de la BVE 𝑉𝑡 = 𝐸𝑡 ∑ 𝛽 𝑗 Como cualquier modelo matemático, posee algunos supuestos básicos que facilitan su adaptación práctica, esto son: la información disponible determina la esperanza condicional, el factor de descuento estocástico está en función del riesgo sistemático y no sistemático del flujo de caja de la compañía, se cumple el principio de ausencia de arbitraje y la ley del precio único como una función lineal, y la ausencia de arbitraje está determinada por la no existencia de un mercado de negociación. 𝑗=1 𝑢′(𝑐𝑡+𝑗 ) 𝐶𝐹𝑡+𝑗 . 𝑢′(𝑐𝑡 ) (20) Un resultado fundamental en el proceso de valoración se encuentra en los trabajos de Ruback (1995), Fernández (2008), Mitra (2010) y, Adserá y Viñolas (2003), que demostraron la equivalencia entre diferentes planteamientos para valorar empresas, permitiendo con ello configurar una medida de valor corporativo que se ajusta a la información disponible para el analista. Su resultado más importante se le denomina la equivalencia en la valoración. Esto es, Ecuación (21) y (22): 2.4. Flexibilidad de la BVE Proposición 14. Si, A consecuencia de ello, se puede obtener cierta flexibilidad para incorporar características especiales tanto para el factor de descuento estocástico, m, como para al flujo de caja, CF. 𝑉𝑡 = 𝑓(𝐶𝐹, 𝑚) = 𝑓(𝐹𝐶𝐹, 𝑅𝑤𝑎𝑐𝑐 ). Entonces, ∞ Esto es: 𝑉𝑡 = ∑ Proposición 8. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son valores conocidos para 𝑗 ≥ 0, entonces, ver Ecuación (15): ∞ 𝑉𝑡 = ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 . (15) 𝑗=1 Proposición 9. Si 𝐶𝐹𝑡+𝑗 son valores conocidos para 𝑗 ≥ 0, entonces, Ecuación (16): ∞ 𝑉𝑡 = ∑ 1 𝑓 𝑅 𝑗=1 𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 . (16) Proposición 10. Si 𝑚𝑡,𝑡+𝑗 es un valor conocido para 𝑗 ≥ 0, entonces, Ecuación (17): 1 𝑅𝑤𝑎𝑐𝑐 𝑗=1 𝑡,𝑡+𝑗 𝐸𝑡 [𝐹𝐶𝐹𝑡+𝑗 ] . (21) (22) Es decir, la ecuación de valor corporativo puede expresarse como el valor esperado de los flujos de caja libre descontados al costo promedio ponderado de capital. Por otra parte, con los trabajos de Black-Scholes-Merton en la década de los 70’s, se abrió un vínculo notablemente explotado por Myers (1976), Trigeorgis y Manson (1987) y Pindyck (1988), el cual denominan el valor de la flexibilidad en los proyectos y que se basa en el concepto de la opción real. Definición 6. Una opción real es una opción financiera bajo un contexto estratégico con valor, 𝑂𝑡 , en función de su costo de inversión, 𝑋, del valor actual de sus flujos futuros de caja, 𝑉𝑇 , y del factor de descuento estocástico tanto de la opción, 𝑚 𝑇 , como del proyecto, 𝑚𝑡,𝑡+𝑇 ; de tal manera que, Ecuación (23): ∞ 𝑉𝑡 = ∑ 𝑚𝑡,𝑡+𝑗 𝐸𝑡 [𝐶𝐹𝑡+𝑗 ] . Maximizar (17) 𝑂𝑡 = 𝐸𝑡 [𝑚𝑡,𝑡+𝑇 (𝑉𝑇 − 𝑋)+ ]. 𝑗=1 Sujeto a: Proposición 11. Si tanto 𝑚𝑡,𝑡+𝑗 como 𝐶𝐹𝑡+𝑗 son variables aleatorias independientes, entonces, Ecuación (18): 𝑚𝑡,𝑡+𝑇 > 0, Revista Politécnica - Marzo 2016, Vol. 37, No. 2 𝑉𝑇 = 𝐸𝑡 [𝑚 𝑇 𝐶𝐹𝑇 ], 1 = 𝐸𝑡 [𝑚 𝑇 𝑅𝑓 ] (23) 143 Galvis Andrés1, 2; Galindo Edwin3 _______________________________________________________________________________________________________________________________ Donde la primera restricción implica ausencia de arbitraje, mientras las dos restantes establecen la dinámica del valor actual de los flujos y la tasa libre de riesgo respectivamente. Sea, En consecuencia, el valor global de una compañía está en función del valor proporcionado por la operación normal y el valor de las oportunidades estratégicas disponibles para el negocio y que son responsabilidad del equipo gerencial. la representación del valor corporativo agregado para 𝑚 proyectos permanentes y 𝑛 proyectos flexibles, y 𝑔 𝑉̃𝑖,𝑡 = 𝑉̃𝑚,𝑡 + 𝑂̃𝑛,𝑡 , 𝑔 𝑔 Υ𝑖,𝑗 = 𝑉̃𝑖,𝑡 − 𝑉̃𝑗,𝑡 , 𝑔 Definición 7. Se define el valor corporativo general, 𝑉𝑡 , como un proceso aditivo entre el valor permanente, 𝑉𝑡 , y el valor flexible otorgado por la oportunidad estratégica u opción real del negocio, 𝑂𝑡 . Esto es, Ecuación (24): El cambio en el valor corporativo para dos portafolios cualesquiera de proyectos; entonces si 𝒜 es una familia de valores agregados, se puede definir una medida de riesgo sobre 𝑔 𝑉̃𝑡 . ∞ 𝑔 𝑉𝑡 = 𝐸𝑡 ∑ 𝑚𝑡,𝑡+𝑗 𝐶𝐹𝑡+𝑗 + 𝑚𝑡,𝑡+𝑇 (𝑉𝑇 − 𝑋)+ . (24) 𝑗=1 Lo anterior implica que: dependiendo de la información disponible la BVEg se aplicará tanto en un espacio de tiempo discreto como continuo, el componente de opción real posee las características propias de una opción financiera call de tipo americano con dividendos, el valor de la opción real es independiente del valor corporativo, la ausencia de opciones reales o el no ejercicio de la opción real implican un valor cero en el término, y por último, dependiendo de la instrumentación financiera en el mercado es posible reemplazar la opción real por cualquier instrumento derivado. El argumento lógico parte del hecho de que el valor corporativo es una variable aleatoria de tipo transversal la cual no es observable para periodos mayores a 𝑡; es decir, la intención no radica en el estudio de la variabilidad entre periodos, sino en la variabilidad de la posición actual del portafolio de proyectos condicionado al componente permanente y al componente flexible. 2.6. Riesgo de valor corporativo Definición 8. Una medida de riesgo es una función tal que, 𝜌 ∶ 𝒜→ℝ 𝑔 𝑔 𝑉̃𝑡 → 𝜌(𝑉̃𝑡 ) 2.5. Distribución de muestreo de la BVE La siguiente proposición es el resultado de las investigaciones llevadas a cabo en las últimas décadas por Cochrane (2005), Myers (1976), Dufresne (1990) e Hillier (1963). Esto es: Proposición 15. Sea 𝑉̃𝑡 (𝑤) y 𝑂̃𝑡 (𝑤) una estimación particular de la trayectoria 𝑤 en el periodo 𝑡, 𝑔 𝑉̃𝑡 (𝑤) = 𝑉̃𝑡 (𝑤) + 𝑂̃𝑡 (𝑤), Si 𝑤 ∈ Ω, entonces 𝑉̃𝑡 (𝑤) y 𝑂̃𝑡 (𝑤) serán variables aleatorias en 𝑡 y por lo tanto, Ecuación (25): 𝑔 𝑉̃𝑡 = 𝐸𝑡 [𝑉̃𝑡 + 𝑂̃𝑡 ], (25) y, 𝑔 𝑔 𝑉𝑡 = 𝐸𝑡 [𝑉̃𝑡 ] → 𝑝𝑡 , siempre y cuando se cumpla la condición de transversalidad. De la proposición (7) y de la ecuación de valor corporativo 𝑔 general (24) se tiene que 𝑉̃𝑡 también es una variable aleatoria, tal que, Ecuación (26): 𝑔 𝑉̃𝑡 ∽ ℒ(𝜃), Definida con base en una medida de probabilidad, ℙ, y con 𝒜 𝑔 como una familia de todos los posibles valores de 𝑉̃𝑡 . Además, se dice que es una medida coherente de riesgo si cumple con las propiedades de monotonía, subaditividad, homogeneidad positiva e invarianza bajo traslaciones. La medida de riesgo que se propone en la presente investigación pretende ir más allá de lo establecido respecto a la valoración de empresas, permitiendo en una economía con ausencia de un mercado de valores y de derivados ajustar el perfil de riesgo y las preferencias de consumo de los inversionistas, accionistas y administradores financieros, los cuales demandan información de tales procesos de valoración con fines de enajenación, inversión, calificación de riesgos y gerencia del valor, entre otros; bajo un entorno de riesgo e incertidumbre. Definición 9. El Riesgo de valor - RiskV, es una medida de riesgo basada en consumo en ausencia de un mercado de capitales desarrollado, cuantificando la potencial destrucción de valor corporativo a un nivel de confianza (1 − 𝛼) 100%, como consecuencia de la variabilidad de su estructura operacional y financiera, y de las posiciones estratégicas de la compañía en el futuro, (26) ̃𝑔 𝑔 Esto es, la variable aleatoria 𝑉̃𝑡 sigue una ley de probabilidad ℒ de parámetro 𝜃. 𝑉𝑡 𝑔 𝑔 𝑔 𝑔 𝜌(𝑉̃𝑡 ) = 𝑅𝑖𝑠𝑘𝑉1−𝛼 = 𝑖𝑛𝑓{𝑣̃𝑡 ∈ ℝ|ℙ(𝑉̃𝑡 ≤ 𝑣̃𝑡 ) ≥ 𝛼} de forma equivalente, Ecuación (27): Revista Politécnica - Marzo 2016, Vol. 37, No. 2 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital _________________________________________________________________________________________________________________________ 𝑔 ̃𝑔 𝑉 𝑡 ℙ (𝑉̃𝑡 ≤ 𝑅𝑖𝑠𝑘𝑉1−𝛼 ) = 𝛼. (27) Sin embargo, no puede considerarse como una medida coherente ya que no cumple con la propiedad de subaditividad. Es decir, dado que las opciones reales están en función de un criterio subjetivo de selección por parte de los directivos de la compañía entonces el añadir opciones no siempre permitirá reducir el riesgo. Por tal motivo, se debe formular la medida condicionada del riesgo de valor, RiskV, de forma análoga al valor en riesgo condicional CVaR. Definición 10. El Riesgo de valor condicional - CRiskV, es una medida coherente de riesgo complementaria al RiskV sin el problema de sub-aditividad, ̃𝑔 ̃𝑔 𝑉𝑡 𝑉𝑡 𝑔 𝑔 𝑔 𝜌(𝑉̃𝑡 ) = 𝐶𝑅𝑖𝑠𝑘𝑉1−𝛼 = 𝐸 [𝑉̃𝑡 |𝑉̃𝑡 < 𝑅𝑖𝑠𝑘𝑉1−𝛼 ], es decir, Ecuación (28): ̃𝑔 𝑉 𝑡 𝐶𝑅𝑖𝑠𝑘𝑉1−𝛼 = 1 𝛼 ̃𝑔 𝑉 𝑡 ∫ 𝑅𝑖𝑠𝑘𝑉1−𝛽 𝑑𝛽 . 𝛼 0 (28) Su bondad se encuentra en la cuantificación de la severidad de una pérdida de valor corporativo y en la obtención de parámetros para la comparación entre diferentes estrategias empresariales; además, sirve como indicador corporativo de riesgo para la comparación entre empresas de un mismo sector e indicador de la exposición del riesgo corporativo global de una economía. 2.7. Estimación de parámetros del modelo El Cash Flow como proceso estocástico de tipo binomial fue planteado por Kruschwitz y Loffler (2010). Esto es, si 𝑢 ocurre con probabilidad 𝑝 y 𝑑 con probabilidad 𝑞 = 1 − 𝑝, entonces, Ecuación (29): 𝐸𝑡 [𝐶𝐹𝑡+𝑘 ] = (𝑢𝑝 + 𝑑𝑞)𝑘 𝐶𝐹𝑡 . 144 ∀𝑏 ′ ∈ 𝐵, 𝑏 ′ ≲ 𝑥 ⇒ 𝑥, máximo de (𝑋, ≳) . (30) Entonces se dice que un individuo realiza una elección racional cuando se produce entre los elementos del conjunto de elección, 𝒞(𝐵). Con base en lo anterior, el comportamiento de un individuo que posee determinadas preferencias respecto a las alternativas de elección, X, debe cumplir con las condiciones de completitud, reflexivilidad y transitividad, respectivamente. Además, la construcción de una función de utilidad implica que también se cumplan los supuestos de continuidad y de monotonicidad fuerte para las preferencias de un individuo, y que a su vez será una representación fiel e isótona sobre el conjunto de elección. Considerando su proceso de elección bajo un ambiente de riesgo las preferencias parten del supuesto de que las personas por lo general no están dispuestas a seleccionar alternativas simplemente por el criterio del valor esperado; por lo cual, se considera que las personas en su mayoría son adversas al riesgo. Esto sugiere que un individuo que acepte ciertas reglas de comportamiento con respecto al riesgo y cuya elección este basada en loterías, sus preferencias podrían representarse mediante una función de utilidad. Ahora, considerando la existencia de un conjunto de elección que forma un espacio de mixtura, es posible definir un espacio de utilidad en el sentido de Luce y Raïffa facilitando la construcción de una función de utilidad. Con base en las anteriores premisas, existe un individuo que siendo accionista de una empresa posee un nivel inicial de riqueza, además, se encuentra en el problema de continuar siendo accionista o ceder tal derecho mediante la venta de su posición. Es decir, debe elegir entre continuar con la lotería o venderla por una lotería degenerada. En definitiva, el mínimo valor para el cual el propietario de la empresa estaría dispuesto a venderla o continuar con ella sería un cierto equivalente que estará en función de su aversión al riesgo. (29) Las consecuencias prácticas del anterior planteamiento permiten una flexibilidad entre la modelización probabilística objetiva y subjetiva, adaptándose fácilmente a la información disponible y al criterio de cada administrador financiero. Más adelante se presenta un tipo de estimación basada en procesos estacionarios de tipo ARMA cuyas propiedades cumplen con la condición de transversalidad. Por otra parte, podemos admitir que el problema de valoración podría plantearse desde la perspectiva de la teoría de la decisión, específicamente, como un problema de lotería compuesta o multietápica, donde el propietario lleva a cabo una secuencia de decisiones de inversión y financiación. Este enfoque exige plantear unas reglas de comportamiento que definen una elección racional bajo riesgo. Definición 11. Consideremos una estructura de preferencia (𝑋, ≳) y un conjunto de elección, 𝒞(𝐵), constituido por los mejores elementos de 𝐵, con 𝐵 ⊂ 𝑋. Esto es, Ecuación (30): Suponiendo una tolerancia absoluta al riesgo de tipo lineal por parte del individuo (LeRoy y Werner, 2010), tal que: 𝑇(𝑥) = 𝜂 + 𝑥 , 𝛾 se obtiene la medida de aversión relativa al riesgo, 𝑥 −1 𝑢′′(𝑥) 𝑟𝑟(𝑥) = 𝑥 (𝜂 + ) = −𝑥 𝛾 𝑢′(𝑥) Luego, haciendo 𝜂 = 0, se obtiene: 𝑟𝑟(𝑥) = 𝛾 Que corresponde a la situación donde la medida de aversión relativa al riesgo es constante e independiente del consumo (CRRA). Por último, la familia de funciones de utilidad de consumo basadas en tal medida están dadas por Ecuación (31): Revista Politécnica - Marzo 2016, Vol. 37, No. 2 145 Galvis Andrés1, 2; Galindo Edwin3 _______________________________________________________________________________________________________________________________ 1 𝑥 1−𝛾 , 𝑢(𝑥) = {1 − 𝛾 ln 𝑥 , 𝑠𝑖 𝛾 ≠ 1 . (31) 𝑠𝑖 𝛾 = 0 Proposición 16. El valor corporativo de una empresa es igual a la suma a perpetuidad del producto entre los flujos de caja y la tasa marginal de consumo intertemporal isoelástica. Esto es, Ecuación(32): + + 𝑂𝑡 = 𝑒 −𝑟(𝑡+1) [𝑝(𝑉1,𝑡+1 − 𝑋) + 𝑞(𝑉2,𝑡+1 − 𝑋) ], (34) 3. RESULTADOS Y DISCUSIÓN ∞ 𝑐𝑡+𝑗 −𝛾 𝑉𝑡 = 𝐸𝑡 ∑ 𝛽 ( ) 𝐶𝐹𝑡+𝑗 . 𝑐𝑡 𝑗 (32) 𝑗=1 El factor de descuento permite captura el deseo por más consumo y su impaciencia intertemporal, más que un objetivo intermedio de media-varianza como se logra con el CAPM; las características de monotonía y concavidad de la función, reflejan un deseo por más consumo y un decrecimiento marginal de su utilidad por un consumo adicional. De igual forma, agrupa en una sola cifra la aversión al riesgo y la impaciencia intertemporal de un inversionista, expuesto a una economía con ausencia de un mercado de valores desarrollado. Finalmente, El valor de flexibilidad representa un agregado de valor corporativo, y se le denominará opción real siempre y cuando se verifique la condición de un entorno incierto y la flexibilidad de los directivos respecto a una inversión (Titman y Martin, 2009). Además, se debe agregar que la incertidumbre debe impulsar el valor del proyecto, los directivos deben ser racionales y las estrategias deben ser creíbles y ejecutables (Mun, 2002). Existe una amplia variedad de opciones reales que satisfacen tales condiciones, sin embargo la familia de opciones estratégicas call permite adaptar los supuestos en ausencia de un portafolio replicante y debido a un mercado de valores o de derivados ineficiente. En efecto, las opciones estratégicas brindan la posibilidad de expandir en escala como en alcance una inversión, de tal forma que una sucesión de inversiones le permitan pasar de ser una compañía sin valor a una que vale por sus oportunidades estratégicas. De hecho, la misma naturaleza de las opciones reales, cuyo activo subyacente es un activo sin mercado, dificulta su valoración mediante los argumentos de duplicidad y no arbitraje que rigen a las opciones financieras; no obstante, el principio financiero es el mismo y como tal es posible generar argumentos de equivalencia financiera y equivalente cierto que permitan aproximar el valor del contrato. Las consecuencias de ello, una tasa neutral al riesgo mayor que la tasa libre de riesgo. Puesto que en la determinación del precio de la opción real estratégica no se puede hacer uso de la teoría de juegos y la duplicación de carteras, se procede mediante el enfoque probabilístico. Esto es, Ecuación (33): 𝑝= Representa la probabilidad que se produzca el valor actual del proyecto, 𝑉1,𝑡+1 , equivalente al rendimiento que se obtendría de una inversión más segura. Por lo tanto, el valor esperado de la opción estratégica de tipo call en el periodo 𝑡, queda determinada por Ecuación (34): 𝑉𝑡 𝑒 𝑟(𝑡+1) − 𝑉2,𝑡+1 , 𝑉1,𝑡+1 − 𝑉2,𝑡+1 (33) La información financiera proporcionada por la compañía, en unidades monetarias (u.m), corresponde a los registros mensuales comprendidos entre el 31 de Enero del 2001 al 31 de Diciembre del 2011; De igual forma, se conoce que la compañía posee una oportunidad estratégica valorada en una inversión de 400 u.m con opción de llevarla acabo durante los siguientes 3 meses, al final de estos, los directivos retirarán la disponibilidad de este aumento de capital en caso de no ejercer la opción. Por otra parte, debido a la coyuntura del país, el acceso a los mecanismos de financiación para la compañía son muy limitados, a tal punto que depende de sus propietarios las futuras inyecciones de capital que permitan financiar las potenciales oportunidades de negocio disponibles para de la empresa. Esto implica que: 𝑐 𝑤𝑎𝑐𝑐 𝑅𝑡,𝑡+𝑗 = 𝑅𝑡,𝑡+𝑗 y 𝐶𝐹𝑡+𝑗 = 𝐹𝐶𝐹𝑡+𝑗 Por lo tanto, los directivos de la compañía están interesados en responder a las siguientes preguntas: ¿Cuál es el valor corporativo esperado si no existen oportunidades estratégicas?, ¿Cuál es el valor corporativo esperado si la empresa posee una posición estratégica?, ¿Qué tan severa es nuestra pérdida de valor? y ¿Existe algún mecanismo para mitigar la pérdida de valor corporativo?. Mediante tales registros financieros y luego del análisis estructural, se obtiene la dinámica del Free Cash Flow la cuál puede ser determinada por un proceso ARMA (1, 0) o ARMA(1, 2) a partir de la estimación de máxima verosimilitud condicional; ahora, considerando que ambos modelos poseen la propiedad de estacionariedad y aplicando la dinámica propuesta por Kruschwitz, se puede decir que mediante el principio de parsimonia la estructura ARMA más conveniente es la de orden (1,0); cuyo modelo de predicción está determinado por Ecuación (35): 𝐹𝐶𝐹𝑡+𝑘 = 0,6047 ∗ 𝐹𝐶𝐹𝑡+𝑘−1 + 𝜀𝑡+1 , (35) De hecho, si los errores se suponen normales, entonces: 𝑘−1 ̂𝑡 (𝑘)~𝑁 (𝐹𝐶𝐹𝑡+𝑘 ; 30,31 ∑ 0,60472𝑖 ). 𝐹𝐶𝐹 2 𝑖=0 Por otra parte, el procedimiento para estimar el parámetro de aversión al riesgo, 𝛾, y el factor subjetivo de descuento, 𝛽, parte del trabajo de Arango y Ramírez (2007), estableciendo con base en la información de consumo en Colombia un modelo lineal, tal que, Ecuación (36): Revista Politécnica - Marzo 2016, Vol. 37, No. 2 El Concepto del Riesgo de Valor y su Cuantificación Mediante la Estructura Estocástica de la Formación de Capital _________________________________________________________________________________________________________________________ 𝑐𝑡+1 𝑓 ln ( ) = 0,018 − 0,1334 ∗ ln 𝑅𝑡 . 𝑐𝑡 (36) Observando, tenemos que aumentos en la tasa de interés ocasionan una reducción de la tasa de crecimiento del consumo, además se deduce que 𝛾 = 8,5 y 𝛽 = 0,87, lo cual nos lleva a concluir que el inversionista colombiano es impaciente y amante al riesgo. Debido a la proximidad geográfica y las características económicas del país, suponemos que el inversionista ecuatoriano posee actitudes similares. 146 Sin embargo, al considerar la oportunidad estratégica del taller metalmecánico el valor cerrado de la opción se ubica en 300,01 u.m y con ello, un nuevo riesgo de valor de 177,92. En este caso, la oportunidad estratégica es suficiente para cubrir el riesgo por pérdida de valor de la compañía; sin embargo, la compañía debe indagar por más oportunidades que le permitan mantener el valor a largo plazo. Es decir, el negocio vale por las oportunidades estratégicas que posea a través del tiempo, ver Figura 2. Debido a que la empresa no posee actualmente ningún tipo de apalancamiento, el factor de descuento estocástico queda determinado por: 0,80 < 𝑚𝑡,𝑡+1 < 0,87. Por otra parte, si consideramos un proyecto cuya inversión inicial hoy se estima en 𝑋 u.m y cuyo valor actual de sus flujos futuros de caja libre se estima en 𝑉 u.m; además, el administrador no está obligado a llevar a cabo el proyecto de forma inmediata por lo cual dispone de 3 meses para tomar la decisión definitivamente. Entonces, su problema de decisión consiste en aceptar o rechazar el proyecto si las condiciones son las adecuadas para el mismo. Por lo tanto, aplicando el algoritmo Hull-White obtenemos que: 𝜎𝑉𝑡 = 1,225 ≡ 125% Así que, 𝑢 = 3,51 y 𝑑 = 0,28. Ahora, considerando que las tasas de interés en Ecuador para depósitos a plazo superiores a 361 días se ubica en 5,31% anual, entonces: 𝑝 = 0,2232 y 𝑞 = 0,7768, con lo que concluimos que la opción estratégica de la compañía se encuentra valorada en 300,01 u.m. Finalmente, y considerando la independencia entre el factor de descuento estocástico y el free cash flow, tenemos a un nivel de confianza del 95% que el riesgo de valor es de -123,43 u.m cuando sólo se evalúa el componente permanente; es decir, se espera con un nivel de confianza del 95% que la potencial destrucción de valor corporativo no exceda las 123,43 u.m debido a la variabilidad de su estructura operacional y financiera actual; lo cual implica que si la compañía no continua explotando oportunidades de negocio no generará valor a largo plazo y por lo tanto destruirá la riqueza de sus propietarios, ver Figura 1. Figura 2. Distribución del valor corporativo general. 4. CONCLUSIONES En general, la ecuación de valor corporativo parte del enfoque basado en consumo proporcionando flexibilidad en el uso de un factor de descuento estocástico que puede expresarse linealmente y adoptar formas alrededor de una media-varianza o estado-preferencia. De igual manera, el flujo de caja adquiere propiedades dinámicas bajo el enfoque, accediendo a características especiales que le permiten moverse en un espacio y tiempo determinado. Por su parte, las medidas de flujo de caja libre y costo de capital corporativo se adaptan satisfactoriamente al enfoque basado en consumo, debido al vínculo que la valoración de empresas posee con el mercado de valores, permitiendo así definir una medida de valor en la cual los demás métodos de valoración convergen cuando conceptualmente son correctos; sin embargo, a pesar de la ausencia de un mercado organizado que deja inoperable algunos principios, el modelo basado en consumo facilita la construcción de un factor de descuento estocástico de acuerdo al perfil de riesgo y a la función de utilidad de cada inversionista. Finalmente, lo más importante, la independencia entre el factor y el flujo de caja no son evidentes como nos presenta la literatura financiera, la relación que presentan no es de correlación constante a través del tiempo, más bien es una correlación dinámica; es decir, el aporte del factor de descuento al flujo de caja libre es un proceso estocástico. A diferencia de la propuesta de Kruschwitz, la dinámica del flujo de caja podría ser modelada a partir de un proceso autoregresivo de media móvil ARMA(p, q), siendo los modelos AR(p) y MA(q) casos particulares del mismo. Tal argumento, se justifica con las propiedades de estacionariedad que posee el proceso de medias móviles-MA y por el teorema de Wold. Figura 1. Distribución del valor corporativo del componente permanente. El riesgo de valor-RiskV no es una medida coherente de riesgo, no obstante, mide la potencial destrucción de valor Revista Politécnica - Marzo 2016, Vol. 37, No. 2 147 Galvis Andrés1, 2; Galindo Edwin3 _______________________________________________________________________________________________________________________________ corporativo a consecuencia de la variabilidad de su estructura operacional y financiera, y de las posiciones estratégicas de la compañía en el futuro; se basa en el modelo de consumo intertemporal para una economía con ausencia de un mercado de capitales desarrollado, permitiendo ajustar el perfil de riesgo y las preferencias de consumo de los inversionistas, accionistas y administradores financieros, los cuales demandan información en un entorno de riesgo e incertidumbre. AGRADECIMIENTO Agradezco a Edwin Galindo, Juan Carlos García, Carlos Valladares y Ana María Aldás por su valiosos comentarios en la revisión del documento, A la Universidad de las Américas y la Universidad de las Fuerzas Armadas – ESPE por el valioso tiempo y el espacio que me brindaron para abordar tan profundo problema de investigación. Y por supuesto, le agradezco a toda mi familia que siempre han acompañado y apoyado mi labor docente e investigativa. A todos ellos gracias. REFERENCIAS Markowitz, H. (1990). Foundations of portfolio theory. Journal of finance. 46(2), 469-477. Mitra, S. (2010). Note on cash flow valuation methods: comparison of WACC, FTE, CCF, and APV approaches. Obtenido de la bases de datos de Richard Ivey School of Business. Mun, J. (2002). Valoración. Real options analysis: tools and techniques for valuing strategic investment and decisions. New York, United States: John Wiley & Sons, Ltd. Myers, S. (1977). Determinants of corporate borrowings. Journal of financial economics. 5(2), 147-175. Pindyck, R. (1988). Irreversible investment, capacity choice and the value of the firm. American Economic Review. 78(5), 969-985. Ross, S., Westerfield, R., y Jordan, B. (2010). Fundamentos de finanzas corporativas, 7ma ed. México DF, México: McGraw- hill. Ruback, R, (1995). An introduction to cash flow valuation methods. Obtenido de la base de datos de Harvard Business School Publishing. Sargent, T. (1987). Dynamic macroeconomic theory. Cambridge, United States: Harvard University Press. Titman, S., y Martin, J. (2009). Valoración. El arte y la ciencia de las decisiones de inversión corporativa. Mexico DF, México: Pearson Learning. Trigeorgis, L., y Mason, S. (1987). Valuing Managerial Flexibility, Midland Corporate Finance Journal. 5(1), 14‑21. Adserá, X., y Viñolas, P. (2003). Principios de valoración de empresas. Madrid, España: Ediciones Deusto. Williams, J. (1938). The theory of investment value. Boston, United States: Harvard University Press. Arango, M., y Ramírez, A. (2007). Aversión al riesgo y tasa subjetiva de descuento: caso colombiano, 1970-2003. Revista de Ingenierías Universidad de Medellín. 6(10), 93-99. Baye, M. (2006). Managerial economics and business strategy, 5th ed. New York, United States: McGraw-Hill. Cochrane, J. (2005). Asset pricing. Boston, United States: Princeton University Press. Dean, J. (1951). Capital Budgeting. New York, United States: Columbia University Press. Dufresne, D. (1990). The Distribution of a Perpetuity, with Applications to Risk Theory and Pension Funding. Scandinavian Actuarial Journal. 1(1), 3979. Fernández, P. (2008). Valoración de empresas por descuento de flujos: diez métodos y siete teorías. Obtenido de la base de datos del IESE Business School. Fisher, I. (1907). The rate of interest: its nature, determination and relation to economic phenomena. New York, United States: The Macmillan Company. Gordon, M., y Shapiro, E. (1956). Capital equipment analysis: the required rate of profit. Management science 3(1), 102-110. Greenwood, R. (2010). Calculating free cash flows, Obtenido de la base de datos de Harvard Business School Publishing. Hazen, G. (2003). A new perspective on multiple internal rates of returns. The engineering economist. 48(1), 31-51. Hillier, F. (1963). The derivation of probabilistic information for the evaluation of risky investment. Management Science. 9(3), 443-457. Kruschwitz, L., y Loffler, A. (2006). Disconted cash flow: a theory of the valuation of firms. New York, United States: John Wiley & Sons, Ltd. LeRoy, S., y Werner, J. (2010) Principles of financial economics, 9th ed. New York, United States: Cambridge University Press. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título _________________________________________________________________________________________________________________________ Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4 1Escuela Politécnica Nacional, Facultad de Ingeniería Mecatrónica, Quito, Ecuador 2Escuela Politécnica del Litoral, Facultad de Ingeniería Industrial, Guayaquil, Ecuador 3,4Universidad de Cuenca, Facultad de Ciencias Exactas, Cuenca, Ecuador Resumen: Las siguientes instrucciones establecen las pautas para la preparación de artículos para la Revista Politécnica. Los artículos pueden ser escritos en español o en inglés, pero tendrán un resumen de máximo 250 palabras en los dos idiomas. Los autores pueden hacer uso de este documento como una plantilla para componer su artículo si están utilizando Microsoft Word 2013 o superior. Caso contrario, este documento puede ser utilizado como una guía de instrucciones. El número mínimo de páginas será 6 y el máximo 10. Para el envío de los artículos, los autores deben seguir las instrucciones colocadas en el sistema de recepción de artículos del sitio web de la Revista Politécnica (www.revistapolitecnica.epn.edu.ec). En caso de que su artículo sea en inglés colocar el título y el resumen en los dos idiomas. Palabras clave: Incluir una lista de 3 a 6 palabras. Title of Manuscript Abstract: These instructions give you guidelines for preparing papers for EPN Journal. Papers can be written in Spanish or English; however, an abstract of maximum 250 words and written in both languages is required. Use this document as a template to compose your paper if you are using Microsoft Word2013 or later. Otherwise, use this document as an instruction set. The minimum number of pages will be 6 and the maximum will be 12. For submission guidelines, follow instructions on paper submission system from the EPN Journal website(www.revistapolitecnica.epn.edu.ec). Keywords: Include a list of 3 to 6 words. 1 1. INTRODUCCIÓN Este documento es una plantilla para versiones Microsoft Word 2013 o posteriores. Si está leyendo una versión impresa de este documento, por favor descargue el archivo electrónico, revistapolitécnicaformato2015.docx. Por favor, no coloque numeración ni pie de página en el documento presentado. Todo artículo debe contener Resumen, Introducción, Marco Teórico/Metodología, Resultados y Discusión, Conclusiones y Referencias. Para colocar los Agradecimientos de ser necesarios, siendo opcional esta sección, por favor ubicarlos antes de la sección de Referencias. El contenido de estas secciones se detallará en la sección correspondiente. Puede escribir sobre las secciones de la revistapolitécnicaformato2015.docx. o cortar y pegar de otro documento y, luego usar estilos de marcado. A continuación se incluye un ejemplo de introducción en inglés y español. Los mismos que no corresponden a imágenes o secciones del presente artículo, solo muestran una forma propuesta de redacción. El menú desplegable de estilo está a la izquierda de la barra de herramientas de formato, en la parte superior de la ventana de Word (por ejemplo, el estilo en este punto del documento es "Texto"). Resalte una sección que usted quiera designar con un cierto estilo, y luego seleccione el nombre apropiado en el menú de estilo. El estilo ajustará los tipos de letra y espaciado de línea. No cambie los tamaños de fuente o espaciado de renglones para ajustar el texto a un número limitado de páginas. Utilice cursiva o negrita para dar énfasis a un texto, no subrayado. Ejemplo en Inglés: The interaction between matter and radiation in nonlinear systems allows multiphotonic responses, i.e. second and third harmonic generation, Kerr effect and Four-Wave Mixing (FWM). This technique is based on three beams acting on a material such that a fourth beam with its own characteristics is generated because of the laser-matter interaction. This technique can be used in studies of the system lifetimes, optical susceptibilities and Raman levels, among others (García-Golding and Marcano, 1985). The particular Colocar el correo electrónico del autor de correspondencia. Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4 _______________________________________________________________________________________________________________________________ cases, where the signal of FWM is either degenerate or nondegenerate, have been objects of renewed interest in the very active fields of nanoscience and nanotechnology (Paz et al., 2011), where this type of spectroscopy is used to determine the structure of nanomaterials through their nonlinear optical responses. These studies are still under development, promising to open an intense line of investigation, where models like the one that we propose in the following section are directly applicable. Nonlinear optical techniques have been applied for several years in the study of a wide range of materials that includes polymers, semiconductors, biological molecules and organic compounds such as chromophores, among others. The dynamics of those systems have been successfully described by the Optical Conventional Bloch equations (OCBE), where the reservoir (a liquid for instance) influence is taken into account through the longitudinal and transversal relaxation times, T1and, T2 respectively. We propose a methodology based on a stochastic description, where the system-solvent collisional interaction induces random shifts in the natural frequency, which transforms the usual parameter ɷo (the resonance frequency of the two-level system), into a stochastic variable ξ(t), and the original OCBE into the Optical Stochastic Bloch Equations (OSBE). Under these considerations, and after the calculation of the coherence and the susceptibility of the molecular system, third order optical responses are analyzed for a generic model of an organic dye using the FWM technique. The theoretical study of the optical responses of two-level molecular systems has been done through many approaches; however, most of these studies neglect the Permanent Dipole Moments PDM for simplicity (Ganagopadhyay et al., 1999; Zhu and Li, 2000). Some authors have demonstrated that the inclusion of this parameter is highly important in order to model the optical response of the molecular system (Lavoine, 2007), but they also neglect the solvent presence. In this work, we include the PDM so as to generalize the methodology developed by Colmenares et al. (1995) and expanded by Mastrodomenico et al. (2008) in order to study the PDM effect on the optical responses, when a two-level system immersed in a thermal bath is modeled. In order to measure this effect, we have studied in detail the importance of the Rotating Wave Approximations RWA, as we move between a strong and a weak coupling between the molecular system and the surroundings (Wu and Yang, 2007). In our model, the solvent is modeled as a relaxation mechanism by way of the longitudinal and transversal relaxation times and the collisions within the system, causing a broadening in the upper level. This work is organized as follows. In section 2, we present the methodology of our calculus, the development of the OSBE through the introduction of the stochastic function in the OCBE, and the perturbative expansion to calculate the third order coherence, necessary to obtain the macroscopic polarization and the coupling susceptibility. In section 3, we present the evaluation of the macroscopic inhomogeneous polarization in the tensorial representation. Section 4, is devoted to a graphical analysis of the results obtained for the nonlinear optical properties as a function of the pump field detuning for different coupling strengths and the presence or absence of the permanent dipole moments. Final comments are presented in section. 5. Ejemplo en Español: Las técnicas para estudiar los procesos ópticos se clasifican en términos de diversos criterios. Así, existen técnicas en el dominio del tiempo o de las frecuencias, técnicas resonantes o antiresonantes, y procesos multifotónicos que dependen del orden de la respuesta con respecto a los campos aplicados (Mukamel y Loring, 1986).En general, las técnicas ópticas difieren entre sí por el tiempo de aplicación de los campos eléctricos. En un límite, los campos aplicados y la señal son estacionarios, mientras que en el caso opuesto los campos aplicados son pulsos muy breves. En principio, los observables medidos en el dominio del tiempo y de la frecuencia se pueden relacionar a través de la transformada de Fourier. Por otra parte, las mediciones ópticas frecuentemente se llevan a cabo en medios resonantes, donde un campo o la combinación de las frecuencias de los campos son iguales a la frecuencia característica del sistema. Tales técnicas resonantes son sensibles a procesos de relajación en el material, incluyendo emisión espontánea y además proveen una prueba directa de autoestados específicos (Gorayeb et al., 1995). Con relación a la variedad de procesos multi-fotónicos, resaltan: la generación de segundos y terceros armónicos, la generación de suma o diferencia de frecuencias, y los procesos de polarización a tercer orden, principalmente la Mezcla de Cuatro Ondas (MCO). A través de las interacciones ópticas no lineales se pueden estudiar las respuestas ópticas del medio. Propiedades como el índice de refracción y el coeficiente de absorción son determinantes en el diseño y fabricación de nuevos materiales ópticos con características específicas, por lo tanto, las interacciones ópticas no lineales representan una fuente de información útil en la ciencia y la tecnología (Lin et al., 2007). Estas propiedades no lineales en sistemas moleculares con distintos enfoques de cálculos, han sido objeto de estudio por distintos autores (Wang et al., 2011). Teóricamente, los fenómenos no lineales se estudian en un esquema perturbativo bajo el formalismo de la matriz densidad, la cual obedece la ecuación de Liouville. Si, adicionalmente, se consideran los términos de relajación asociados al proceso, entonces se derivan las Ecuaciones Ópticas de Bloch Convencionales (EOBC), que son análogas a las ecuaciones magnéticas de Bloch. A través de las poblaciones y coherencias inherentes a las EOBC se estudia la dinámica del sistema expuesto a la radiación de alta intensidad. Para el caso más simple, un sistema de dos niveles electrónicos, se deducen tres ecuaciones fundamentales las cuales consideran la frecuencia natural de Bohr como la frecuencia de transición entre los dos estados vibracionales. Sin embargo, con estas ecuaciones de carácter determinista no se puede estudiar la interacción de un sistema molecular en un baño térmico, el cual se asume que induce una estocasticidad en el medio. Así, para considerar tales efectos es preciso modificar las EOBC, en el sentido de incluir dentro de las mismas los términos que dan cuenta del solvente, con esto las EOBC se convierten en las ecuaciones de Bloch ópticas estocásticas (EBOE). Aquí el ensanchamiento entre los niveles electrónicos es aleatorio de modo que la frecuencia natural de transición entre los estados se convierte en una Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título _________________________________________________________________________________________________________________________ función estocástica (Colmenares et al., 1995). Finalmente, considerando los distintos parámetros experimentales, se observó que las propiedades ópticas no lineales, son proporcionales a la concentración de la solución química e inversamente proporcionales a la varianza de la distribución lorentziana. 2. MARCO TEÓRICO/METODOLOGÍA Esta sección debe reflejar el marco referencial que sustente el contenido del artículo, puede incluir: marco teórico, metodología, materiales o métodos y/o consideraciones generales. El título de esta sección puede ajustarse de acuerdo a las necesidades de cada artículo. En esta sección se reporta una síntesis organizada, lógica y pertinente con la investigación. La organicidad y coherencia de la teoría que valida la propuesta, desde el problema o la hipótesis hasta los procedimientos metodológicos y, posteriormente los resultados. De la misma forma, en esta sección se describen los procedimientos metodológicos a desarrollar, cuidando que haya plena coincidencia con las fases que se desprenden de los objetivos de la investigación. 3. RESULTADOS Y DISCUSIÓN En general, se recomienda que tanto el análisis como la discusión de resultados se presenten de manera integrada. Es necesario que los resultados queden clasificados dentro de arreglos significativos: tablas, cuadros, gráficos, diagramas figuras, estadísticas, etc., que permitan reflejarla coherencia y la argumentación de los mismos. Cada representación de datos debe ir seguida de un texto que explique, interprete, contraste, amplíe… lo que los datos significan. autor(es) considera(n) investigación. que han contribuido con la REFERENCIAS La lista de referencias debe estar ordenada alfabéticamente de acuerdo con el apellido del primer autor del artículo. El agregado et al no debe ir en cursiva. Por favor nótese que todas las referencias listadas aquí deben estar directamente citadas en el cuerpo del texto usando (Apellido, año). Las notas al pie deben evitarse en la medida de lo posible. El artículo debe contener un mínimo de 6 referencias. Seguir el formato indicado a continuación de acuerdo al tipo de referencia a: Formato básico para referenciar libros: Apellido, Inicial Nombre. (Año). Título del libro. Ciudad, País: Editorial. Libros con un autor: En las referencias: King, M. (2000). Wrestling with the angel: A life of Janet Frame. Auckland, New Zealand: Viking. Cita en el texto: (King, 2000) o King (2000) argumenta que ... Libros con dos autores: En las referencias: Los resultados cobran interés y valor cuando son interpretados a la luz de la teoría de base; presentada en la sección anterior. En sentido metafórico, los resultados, la teoría y la interpretación deben dialogar activamente en esta sección. 4. CONCLUSIONES La sección de conclusiones es requerida. En esta sección el(los) autor(es) retoma(n) los objetivos del estudio para establecer y plasmar si se cumplieron o no; con ello responderá si la incógnita de la investigación fue despejada y, en otro caso, si fue comprobada la hipótesis de trabajo. También esta parte se dedica a explicar brevemente qué elementos no anticipados surgieron de la investigación y si ello constituyó o no una limitación importante para la consecución de las metas propuestas. Finalmente, de ser necesario y de manera opcional, se pueden incluir las recomendaciones o sugerencias que el(los) autor(es) argumenta(n) como producto de su experiencia y a la luz de sus conocimientos profesionales. AGRADECIMIENTO (OPCIONAL) En esta sección se recomienda incluir los agradecimientos formales a todas las personas y/o instituciones que el(los) Treviño, L. K., y Nelson, K. A. (2007). Managing business ethics: Straight talk about how to do it right. Hoboken, NJ: Wiley Cita en el texto: (Treviño y Nelson, 2007) oTreviño y Nelson (2007) ilustran… Libros con dos o más autores: En las referencias: Krause, K.-L., Bochner, S., y Duchesne, S. (2006). Educational psychology for learning and teaching (2nd ed.). South Melbourne, VIC., Australia: Thomson. Cita en el texto: De acuerdo con Mezey et al. (2002) o ... (Mezey et al., 2002). Formato básico para referenciar artículos científicos Apellido, Inicial Nombre. (Año). Título del Artículo. Título/Iniciales de la Revista. Número de Volumen (Tomo), páginas Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4 _______________________________________________________________________________________________________________________________ Artículos en revistas: En las referencias: Sainaghi, R. (2008). Strategic position and performance of winter destinations. TourismReview, 63(4), 40-57. Cita en el texto: (Sainaghi, 2008) oSainaghi (2008) sugiere ... Artículos con DOI En lasreferencias: Shepherd, R., Barnett, J., Cooper, H., Coyle, A., Moran-Ellis, J., Senior, V., & Walton, C. (2007). Towards an understanding of British public attitudes concerning human cloning. Social Science& Medicine, 65(2), 377-392. http://dx.doi.org/10.1016/j.socscimed.2007.03.018 Cita en el texto: Shepherd et al. (2007) o Shepherd et al. (2007) resaltan la... Artículos sin DOI En las referencias Harrison, B., & Papa, R. (2005). The development of an indigenous knowledge program in a New Zealand Maori-language immersion school. Anthropology and EducationQuarterly, 36(1), 57-72. Obtenido de la base de datos AcademicResearch Library Cita en el texto: (Harrison y Papa, 2005) o En su investigación, Harrison y Papa (2005) establecieron... Artículos en línea En lasreferencias: Snell, D., & Hodgetts, D. (n.d.). The psychology of heavy metal communities and white supremacy. Te KuraKeteAronui, 1. Obtenido de: http://www.waikato.ac.nz/wfass/tkka. (Mayo, 2015). Cita en el texto: (Snell y Hodgetts, n.d.) oSnell y Hodgetts (n.d.) identificaron "..." Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título _________________________________________________________________________________________________________________________ APÉNDICEA PROCEDIMIENTO PARA LA PRESENTACIÓN DEL ARTÍCULO Para las pautas de presentación, siga las instrucciones emitidas por el sistema del sitio web de la revista de la EPN. La presentación inicial debe tomar en cuenta todas las indicaciones que se presentan en la plantilla, para de esta manera tener una buena estimación de la longitud del artículo a publicarse. Además, de esta manera el esfuerzo necesario para la presentación final del manuscrito será mínimo. Como sugerencia, es importante tomar en cuenta que, el primer autor es el investigador que hizo la mayor parte del trabajo, mientras que el último autor suele ser el profesor quien es el líder intelectual y, a menudo edita y presenta el borrador final del documento. La Revista Politécnica pondrá en marcha un sistema de transferencia electrónica de derechos de autor en su momento. Por favor, "no" enviar formularios de derecho de autor por correo o fax. A continuación se detallan las consideraciones que se deben tener en cuenta para la presentación final del artículo. columnas. Las leyendas de las figuras deben estar centradas debajo de las figuras, los títulos de las tablas deben estar centrados sobre ellas. Evite colocar figuras y tablas antes de su primera mención en el texto. Para la mención de figuras, tablas o ecuaciones utilice las palabras completas con la primera letra en mayúscula, por ejemplo "Figura 1". Coloque las unidades entre paréntesis. No etiquete los ejes sólo con unidades. Por ejemplo, escriba "Magnetización (A/m)" o "Magnetización (Am-1)", no sólo "Magnetización A/m." No etiquete los ejes con una relación de cantidades y unidades. Por ejemplo, escriba "Temperatura (K)", no "Temperatura K". Los multiplicadores pueden ser especialmente confusos. Escriba "Magnetización (kA/m)" o "Magnetización (103A/m)". No escriba "Magnetización (A/m) x 1000" porque el lector no sabrá si la etiqueta del eje de arriba significa 16000 A/m o 0,016 A/m. Las etiquetas de las figuras deben ser legibles, con un valor de 8 y sin espacio de separación con la figura. Figuras, tablas y márgenes Todas las figuras deben ser incorporadas en el documento. Al incluir la imagen, asegúrese de insertar la actual en lugar de un enlace a su equipo local. Los archivos de: figuras, dibujos, fotografías, etc., deberán enviarse en formato bmp o jpg, con al menos 1200 puntos (resolución) en uno de sus ejes, con leyendas legibles y de tamaño adecuado. El artículo debe contener entre tablas y figuras un máximo de 10. Las etiquetas de los ejes de las figuras son a menudo una fuente de confusión. Utilice las palabras en lugar de símbolos. Por ejemplo, escriba la cantidad "Magnetización," o "Magnetización M" no sólo "M". 99.9 Los autores deben trabajar activamente con los márgenes solicitados. Los documentos de la revista serán marcados con los datos del registro de la revista y paginados para su inclusión en la edición final. Si la sangría de los márgenes en su manuscrito no es correcta, se le pedirá que lo vuelva a presentar y esto, podría retrasar la preparación final durante el proceso de edición. Por favor, no modificar los márgenes de esta plantilla. Si está creando un documento por su cuenta, considere los márgenes que se enumeran en la Tabla 1. Todas las medidas están en centímetros. 98 Weibull Breakdown Probability (%) Figura 2. Robots Móviles Pioneer y su Entorno Experimental. Formato de doble columna. 90 70 50 30 20 10 Tabla 1. Márgenes de página 5 2 1 0.5 0.2 0.1 100 101 Página Superior Inferior Primera Resto 2,5 2,5 2,5 2,5 Izquierda/ Derecha 1,5 1,5 Ecuaciones 102 Breakdown Voltage (kV) Figura 1. Distribución Weibull de 60 Hz voltajes de ruptura11 cables α = 45,9 kV picoβ = 5,08.Intervalo de Confidencia 95% Las figuras y tablas deben estar en la parte superior e inferior de las columnas. Evite colocarlas en medio de ellas. Las figuras y tablas grandes pueden extenderse a lo largo de ambas Si está usando MSWord, sugerimos utilizar el Editor de ecuaciones de Microsoft o el MathTypeadd-on para las ecuaciones en su documento (Insertar/Objeto/Crear Nuevo/Microsoft Ecuación o Ecuación MathType). La opción "flotar sobre el texto" no se debe elegir.’ Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Apellido Nombre1; Apellido Nombre2; Apellido Nombre3; Apellido Nombre4 _______________________________________________________________________________________________________________________________ Enumere las ecuaciones consecutivamente con los números de la ecuación en paréntesis contra el margen derecho, como en (1). Utilice el editor de ecuaciones para crear la ecuación y esta debe estar localizada en el margen derecho, como se muestra en el ejemplo siguiente: r2 0 F (r , ) dr d [ r2 / (2 0 )] (1) Asegúrese de que los símbolos en su ecuación han sido definidos antes de que aparezcan en la ecuación o inmediatamente después. Ponga en cursiva los símbolos (T podría referirse a la temperatura, pero T es la unidad tesla). Para referirse a la ecuación se escribe por ejemplo “Ecuación (1) " Unidades Utilice el SI como unidades primarias. Otras unidades pueden ser utilizadas como unidades secundarias (en paréntesis). Por ejemplo, escriba "15 Gb/cm2 (100 Gb/in2)". Evite combinar las unidades del SI y CGS, como la corriente en amperios y el campo magnético en oerstedios. Esto a menudo lleva a confusión porque las ecuaciones no cuadran dimensionalmente. Si tiene que usar unidades mixtas, aclare las unidades para cada cantidad en una ecuación. Por ejemplo, en el SI la unidad de fuerza de campo magnético Hes A/m. Sin embargo, si desea utilizar unidades de T, o bien se refiere a la densidad de flujo magnético B o la fuerza del campo magnético simbolizadas como µ0H. Use un punto en el centro para separar las unidades compuestas, por ejemplo, “A·m2.” Abreviaturas y Siglas Defina las abreviaciones y acrónimos la primera vez que se utilizan en el texto, incluso después de que ya han sido definidos en el resumen. No utilice abreviaturas en el título a menos que sea inevitable. Otras recomendaciones Todos los artículos deberán ser enviados en formato Word. Para expresar valores decimales se usarán comas, por ejemplo 3,45. Use un cero antes del decimal. Se incluirá un espacio entre números para indicar los valores de miles, por ejemplo 463 690. Utilice guión los modificadores complejos (Por ejemplo: campo-cero-refrescando la magnetización). Evite el uso de los gerundios. Utilice notación científica para expresar números con más de 3 cifras hacia la derecha o izquierda, es decir, mayores a 2,50E+05 o menores a 4,8E-03 Revista Politécnica - Marzo 2016, Vol. 37, No. 2 Preparación de Artículos para la Revista Politécnica Utilizar Mayúsculas en cada Palabra en el Caso del Título _________________________________________________________________________________________________________________________ INFORMACIÓN ADICIONAL Fecha Límite de Recepción de Artículos: Diciembre 2015 Fecha Límite de Aceptación de Originales: Enero 2016 - Sistema de Arbitraje: Todos los artículos cumple con una revisión por pares, la cual consiste en: Selección de dos o tres árbitros, actualmente la Revista Politécnica cuenta con revisores internos, externos e internacionales, quienes envían al editor su evaluación del artículo y sus sugerencias acerca de cómo mejorarlo. El editor reúne los comentarios y los envía al autor Con base en los comentarios de los árbitros, el editor decide si se publica el manuscrito. Cuando un artículo recibe al mismo tiempo evaluaciones tanto muy positivas como muy negativas, para romper un empate, el editor puede solicitar evaluaciones adicionales, obviamente a otros árbitros. Otra manera de desempate consiste en que los editores soliciten a los autores que respondan a las críticas de los árbitros, a fin de refutar una mala evaluación. En esos casos el editor generalmente solicita al árbitro que comente la respuesta del autor. Toda la evaluación se realiza en un proceso ciego, es decir los autores no conocen quienes son sus revisores, ni los revisores conocen los autores del artículo. Nota de copyright Los autores que publican en esta revista están de acuerdo con los siguientes términos: - Los autores conservan los derechos de autor y garantizan a la revista el derecho de ser la primera publicación del trabajo al igual que licenciado bajo una Creative Commons Attribution License que permite a otros compartir el trabajo con un reconocimiento de la autoría del trabajo y la publicación inicial en esta revista. - Los autores pueden establecer por separado acuerdos adicionales para la distribución no exclusiva de la versión de la obra publicada en la revista (por ejemplo, situarlo en un repositorio institucional o publicarlo en un libro), con un reconocimiento de su publicación inicial en esta revista. - Se permite y se anima a los autores a difundir sus trabajos electrónicamente (por ejemplo, en repositorios institucionales o en su propio sitio web) antes y durante el proceso de envío, ya que puede dar lugar a intercambios productivos, así como a una citación más temprana y mayor de los trabajos publicados (Véase The Effect of Open Access) (en inglés). Instructivo para publicar un Artículo 1. 2. 3. 4. Solicitar usuario y contraseña para acceder al portal web de la Revista Politécnica al correo [email protected] Ingresar al portal web e iniciar el proceso de envío Comenzar el envío Colocar requisitos de envío Lista de comprobación de preparación de envíos Como parte del proceso de envío, se les requiere a los autores que indiquen que su envío cumpla con todos los siguientes elementos, y que acepten que envíos que no cumplan con estas indicaciones pueden ser devueltos al autor. - - todas las ilustraciones, figuras y tablas están dentro del texto en el sitio que les corresponde y no al final del todo. El texto cumple con los requisitos bibliográficos y de estilo indicados en las Normas para autoras/es, que se pueden encontrar en "Acerca de la Revista". Declaración de privacidad - 5. 6. 7. 8. Los nombres y direcciones de correo-e introducidos en esta revista se usarán exclusivamente para los fines declarados por esta revista y no estarán disponibles para ningún otro propósito u otra persona. Subir el envío Introducir metadatos Subir ficheros adicionales Confirmar el envío La petición no ha sido publicada previamente, ni se ha presentado a otra revista (o se ha proporcionado una explicación en Comentarios al Editor). El fichero enviado está en formato OpenOffice, Microsoft Word, RTF, o WordPerfect. Se han añadido direcciones web para las referencias donde ha sido posible. El texto tiene interlineado simple; el tamaño de fuente es 10 puntos; se usa cursiva en vez de subrayado (exceptuando las direcciones URL); y Revista Politécnica - Marzo 2016, Vol. 37, No. 2