Revista 18 Finalizado.indd - Biblioteca Cardenal Darío Castrillón
Transcripción
Revista 18 Finalizado.indd - Biblioteca Cardenal Darío Castrillón
1 Directivos Consejo Superior Monseñor Rigoberto Corredor Bermúdez Pbro. Diego Augusto Arcila Vélez Pbro. Behitman Céspedes de los Ríos Pbro. Rubén Darío Jaramillo Montoya Pbro. John Fredy Franco Delgado Dr. Bernardo Gil Jaramillo Dr. Javier Morales López Dr. Jaime Montoya Ferrer Dr. José Fredy Aristizábal Estudiante Camilo Bedoya Rector Pbro. Diego Augusto Arcila Vélez Vicerrector Académico Luis Eduardo Peláez Valencia Decano de la Facultad de Ciencias Básicas e Ingeniería Juan Luis Arias Vargas Director Programa de Ingeniería Industrial Paula Milena Rios González Director Programa Ingeniería de Sistemas y Telecomunicaciones Alonso Toro Lazo Director Programa de Tecnología en Sistemas Lina María Suárez Vásquez Director Depto de Ciencias Básicas James Andrés Barrera Moncada Universidad Católica de Pereira 2 ENTRE CIENCIA E INGENIERÍA ISSN 1909-8367 Es una revista de la Facultad de Ciencias Básicas e Ingeniería, que tiene por objeto aportar al desarrollo en ciencia básica e ingeniería mediante la difusión de artículos que den cuenta del avance y estado del conocimiento, de la técnica y de la tecnología y de la formación en estas áreas. La revista Entre Ciencia e Ingeniería esta admitida en: · · · · · · Índice de Publicaciones Seriadas Científicas y Tecnológicas (PUBLIDEX Categoría B) Índice Latinoamericano de Revistas Científicas y Tecnológicas (LATINDEX) Índice Internacional de EBSCO Índice Actualidad Iberoamericana (Instituto Iberoamericano de Información en Ciencia) Base de Datos Informe Académico (Académica Onefile) Red Colombiana de Revistas de Ingeniería En su publicación periódica hace un aporte para la continua renovación de teorías y un acercamiento a la verdad difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos, sociales y culturales. Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los conceptos expresados en los artículos son responsabilidad exclusiva de sus autores. Universidad Católica de Pereira Av de las Américas Carrera 21 No 49-95 Pereira, Colombia Teléfono 3124000 ext 1019 y 1029 Http://biblioteca.ucp.edu.co/OJS/index.php/entrecei [email protected] Periodicidad semestral Diagramación e Impresión ARPI Artes Gráficas Impreso en Colombia - Printed in Colombia ARPI Artes Gráficas Calle 19 No 12-69 Centro Comercial Fiducentro Local B-001,Tel 334 4258 Pereira - Colombia © Reservados todos los derechos de autor ISSN 1909 - 8367 Pereira, Colombia Entre Ciencia e Ingeniería 3 Comité Científico PhD. Diego Muraca Universidad Estatal de Campinas (Brasil) PhD. Victor Leiva Universidad Adolfo Ibáñez (Chile) PhD. Christian Alexis Lazo Ramírez Universidad Austral de Chile Director Msc. Juan Luis Arias Vargas Universidad Católica de Pereira Editor Universidad Católica de Pereira Coordinador Editorial PhD. (C) Line Yasmin Becerra Sánchez Universidad Católica de Pereira Corrección de estilo Esp. Jair del Carmen Rodríguez Velásquez Universidad Católica de Pereira Comité Editorial PhD. (C) Line Yasmin Becerra Sánchez Universidad Católica de Pereira PhD. Diego Fernando Arias Mateus Universidad Católica de Pereira Msc. Juan Luis Arias Vargas Universidad Católica de Pereira PhD. Yair Linn Universidad UBC (University of British Columbia). PMC-Sierra (Burnaby-Canada) PhD. Jhon Jairo Padilla Aguilar Universidad Pontificia Bolivariana (Bga.) PhD. John Makario Londoño Bonilla Universidad de Caldas PhD. Liliana López Kleine Universidad Nacional de Colombia PhD. Hermenegildo Gil Gómez Universidad Politécnica de Valencia PhD. Daniel Linares Universidad de San Luis (Argentina) PhD. Antonio Sanhueza Universidad de La Frontera, Temuco, (Chile) Arbitros para este número PhD. Gonzalo Taborda Ocampo Universidad de Caldas PhD (c). Jaime Antero Arango Marín Universidad Nacional de Colombia – Sede Manizales MSc- José Alberto Rúa Vásquez Universidad de Medellín PhD. Cristina Inés Álvarez Barreto Universidad de Caldas PhD- Julio César Mosquera Mosquera Universidad del Quindío MSc Luis Alejandro Fletscher Universidad de Antioquia PhD. Oscar Mauricio Caicedo Rendón Universidad del Cauca MSc Euclides Murcia Londoño Universidad Católica de Pereira PhD- Jorge Hernán Quintero Orozco Universidad de Medellín MSc Jorque Enrique Herrera rubio Universidad de Pamplona PhD. Gustavo Adolfo Isaza Echeverri Universidad de Caldas MSC-Ramiro Torres Gallo Universidad de Córdoba Universidad Católica de Pereira 4 Entre Ciencia e Ingeniería 5 CONTENIDO Editorial 7 9 - 15 Análisis y caracterización fisicoquímica de la especie Hevea Brasiliensis Physicochemical analysis and characterization of the Hevea brasiliensis species A. M. Támara y H. Reyes Simulación de un proceso de logística inversa: recolección y acopio de envases y empaques vacíos de plaguicidas Simulation of a reverse logistics process: collecting and stockpiling containers and empty pesticides packaging J. D. Silva y E. D. Contreras 16 - 22 Educación matemática en Colombia, una perspectiva evolucionaria Mathematics education in Colombia, an evolutionary perspective M. E. Murcia y J. C. Henao 23 - 30 Estudio de la viabilidad del Lactobacillus casei en jugo de naranja (Citrus sinensis) adicionado con vitamina C, Calcio y oligofructosa Feasibility study of Lactobacillus casei in orange juice (Citrus sinensis) supplemented with vitamin C, calcium and oligofructose M. C. Londoño, J. C. Lucas y V. D. Quintero 31 - 38 Modelos de crecimiento de grietas por fatiga Models of fatigue crack growth Á. A. Andrade, W. A. Mosquera y L. V. Vanegas 39 - 48 Preliminares de la adaptación del algoritmo PA-VNE para la reasignación de redes virtuales mapeadas y la selección entre diferentes tipos de métricas Preliminaries in the adaptation of the algorithm PA-VNE for the reallocation of mapped virtual networks and the choice between different types of metrics N. Alzate, J.R. Amazonas y J.F. Botero 49- 58 Medición del nivel de aprendizaje con dos escenarios de formación: uno tradicional y otro con TIC Measuring the level of learning with two formation scenarios: a traditional one, and another with ICTs L. E. Peláez y B. E. Osorio 59 - 66 Una revisión del estado del arte de la medida de la nano dureza usando el Microscopio de Fuerza Atómica A review of the state of the art when measuring the nanohardness using the Atomic Force Microscope D. F. Arias, D. Pérez y J.M. González 67 - 74 Universidad Católica de Pereira 6 El diodo Schottky como atenuador del efecto Seebeck en una celda Peltier para un control PID de temperatura The Schottky diode as attenuator of the Seebeck effect on a Peltier cell for a PID temperature control J.F. Leal, M.M. León y S.B. Sepúlveda 75 - 83 Comparación de dos algoritmos para hallar ternas pitagóricas usando dos paradigmas de programación diferentes Comparison of two algorithms in order to find Pythagorean triples using two different programming paradigms O. I. Trejos 84 - 94 Modelado de la energía de interacción de nanopartículas de sílice preparadas en microemulsiones Modeling the interaction energy of silica nanoparticles prepared in microemulsions D.F. Tirado, D. Acevedo y A.P. Herrera Políticas de la Revista Entre Ciencia e Ingeniería 95 - 101 102 - 105 7 Editorial La revista especializada de la Facultad de Ciencias Básicas e Ingeniería de la Universidad Católica de Pereira, Entre Ciencia e Ingeniería cierra exitosamente su noveno año con el ejemplar número 18, el cual responde a las políticas institucionales que a través de ella se busca consolidar, como son difundir el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos, sociales y culturales, al igual que propender por el desarrollo de la ciencia y la ingeniería, mediante la divulgación de una serie de artículos relacionados con diferentes avances en cuanto a la academia, la técnica y la tecnología, tanto a nivel regional como nacional. Para el segundo semestre de 2015, la revista presenta once artículos, producto de rigurosas investigaciones llevadas a cabo por sus autores en diferentes áreas del conocimiento y en diversos contextos, todo ello resultado de muchos días de constante y estricto trabajo, buscando siempre contribuir al desarrollo social a través de prácticas que generan conocimiento continuo y permanente convirtiéndose en referente para nuevas investigaciones y nuevos investigadores. En el primer artículo, análisis y caracterización fisicoquímica de la especie Hevea Brasiliensis, los autores caracterizan por técnicas de TGA, DTG e IR la coagulación del látex de caucho natural, mediante el uso de ácido fórmico y ácido acético; el segundo artículo Simulación de un proceso de logística inversa: recolección y acopio de envases y empaques vacíos de plaguicida presenta el estudio realizado al proceso de recolección y acopio de residuos de plaguicidas en la unidad de riego Pantano de Vargas- Boyacá Colombia y a través de la evaluación de alternativas de mejora, se planteó una configuración factible que proporcionó la mayor disminución del tiempo total del proceso de recolección y acopio de los residuos; el artículo de revisión, educación matemática en Colombia, una perspectiva evolucionaria, plantea de forma concreta algunos elementos epistemológicos de la formación del pensamiento matemático para el nivel de educación básica y media en Colombia, con los posibles errores metodológicos que se cometen en los procesos de transformación del lenguaje común hacia el lenguaje matemático estructurado; en el artículo denominado estudio de la viabilidad de Lactobacillus casei en jugo de naranja (Citrus sinensis) adicionado con vitamina C, calcio y oligofructosa, se utilizó la naranja valencia para producir un jugo enriquecido con bacterias probióticas (Lactobacilos casei), se midió la concentración óptima de estabilizante realizando un barrido con tres tipos de gomas (Xantan, CMC, y pectina) evaluado mediante un arreglo factorial 33. El artículo modelos de crecimiento de grietas por fatiga, estudia el tema, exponiendo una breve descripción histórica. Siguiendo la línea cronológica en el desarrollo de la investigación, hace especial énfasis en la ley de Paris y luego estudia algunos modelos específicos que, en general, corresponden a investigaciones de punta realizadas por diversos grupos, en el ámbito internacional; el artículo preliminares de la adaptación del algoritmo PA-VNE para la reasignación de redes virtuales mapeadas y la selección entre diferentes tipos de métricas presenta los avances preliminares de la investigación acerca de la optimización del algoritmo PA-VNE y su implementación en una red definida por software; el artículo medición del nivel de aprendizaje con dos escenarios de formación: uno tradicional y otro con TIC, sistematiza la experiencia llevada a cabo en la Institución Educativa Villa Santana, la cual consiste en un trabajo de campo en el que se utilizaron algunas herramientas para el desarrollo de la temática sobre números fraccionarios en el grado quinto y el despliegue de algunas estrategias pedagógicas convencionales y no convencionales, para luego medir su impacto a partir de los resultados del proceso de evaluación. En el artículo denominado una revisión del estado del arte de la medida de la nanodureza usando el Microscopio de Fuerza Atómica se pretende realizar una primera aproximación a algunos modelos usados para evaluar la dureza usando el AFM a partir del modelo elástico; en el siguiente artículo, el diodo Schottky como atenuador del efecto Seebeck en una celda Peltier para un control PID de temperatura, se propone el diodo Schottky 15SQ045 como una solución eficaz y efectiva para anular los daños que produce el efecto Seebeck en la celda Peltier; en el artículo comparación de dos algoritmos para hallar ternas pitagóricas usando dos paradigmas de programación diferentes, además de analizar las características algorítmicas de dos versiones de solución al problema de hallar ternas pitagóricas en un rango de 1 hasta n para n como un valor entero definido, se realiza una comparación entre la solución implementada a partir del paradigma de programación funcional, basado en lenguaje Scheme entorno Dr. Racket versión 6.1 y la solución implementada a partir del paradigma de programación imperativa utilizando lenguaje C++ arista estructurada entorno DevC++ Versión 5.8.0; finalmente, en el artículo modelado de la energía de interacción de nanopartículas de sílice preparadas en microemulsiones, se modeló la energía de interacción de nanopartículas de sílice preparadas en microemulsiones de fase orgánica, usando la teoría DLVO para partículas esféricas de igual tamaño. Esperamos que todos los artículos aquí presentados contribuyan al enriquecimiento y crecimiento académico, intelectual e investigativo de los lectores de nuestra revista y que se conviertan material de apoyo que genere nuevas propuestas investigativas en estos y otros campos del conocimiento, así mismo, esperamos aportar al desarrollo científico y tecnológico de instituciones y grupos de investigación que buscan encontrar cada día nuevas formas de leer el mundo y los fenómenos que en él se presentan. Esp. Jair del Carmen Rodríguez Velásquez Universidad Católica de Pereira 8 Entre Ciencia e Ingeniería 9 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 9-15 Análisis y caracterización fisicoquímica de la especie Hevea Brasiliensis1 Physicochemical analysis and characterization of the Hevea brasiliensis species A. M. Támara y H. Reyes Recibido Agosto 14 de 2014 – Aceptado Septiembre 23 de 2015 Resumen— Este trabajo se centró en caracterizar por técnicas de TGA, DTG e IR la coagulación del látex de caucho natural, mediante el uso de ácido fórmico y ácido acético, se usaron ejemplares clasificados como clon IAN-710, cultivados en el departamento del Caquetá, con el objetivo de comparar la aplicación de éstos ácidos a distintas concentraciones y la repercusión que tienen en las propiedades térmicas y químicas (materia volátil y cenizas). La caracterización se llevó a cabo mediante calorimetría diferencial de barrido, análisis termogravimétrico y la identificación por espectroscopia de infrarroja. Se observó que la variación de la concentración de ácidos no influye en un cambio relevante en las propiedades térmicas, además, no se altera la estructura química molecular principal del caucho como cadena poli (cis-1,4-isopreno). Palabras clave — calorimetría diferencial de barrido, análisis termogravimétrico, espectroscopia infrarroja, caucho natural. Abastract — This work focused on characterizing by techniques TGA, DTG and IR, the coagulation of natural rubber latex, by using formic acid and acetic acid, samples classified as clone IAN-710 grown in Caquetá were used, in order to compare the use of these acids on different concentrations, and the impact they have on the thermal and chemical properties (volatile matter and ash). The characterization was carried 1 Producto derivado del proyecto de Investigación “Análisis y Caracterización Fisicoquímica de la Especie Hevea Brasiliensis”, perteneciente al Grupo Químico en Investigación y Desarrollo Ambiental, avalado por el programa Programa de Química (Ciencias Básicas, Caquetá) de la Universidad de la Amazonia. A. M. Támara es Estudiante Investigador en Química de la Universidad de la Amazonia, Florencia (Colombia); correo e.: mile-219205@hotmail. com; [email protected]. H. Reyes es Ph.D en Ingeniería Química y Nuclear, Director Maestría en Química de la Facultad de Ciencias Básicas y Tecnologías, docente investigador de la Universidad del Quindío, Armenia (Colombia); correo e.: [email protected]. out by differential scanning calorimetry, thermogravimetric analysis and infrared spectroscopic identification. It was observed that the variation of acids concentration does affect neither the thermal properties within a significant change, nor the major molecular chemical structure of rubber as poly (cis-1, 4 -isoprene). Key words — differential scanning calorimetry, thermogravimetric analysis, infrared spectroscopy, natural rubber. I. Nomenclatura DSC: Calorimetría Diferencial de Barrido TGA: Análisis Termogravimétrico DTG: Derivada del Análisis termogravimétrico IR: Espectroscopia infrarroja E II. Introducción L caucho, Hevea brasiliensis, es la fuente de la materia prima de innumerables productos que generan un gran impacto en el desarrollo industrial, económico y social, siendo utilizado como materia prima industrial, bien sea de forma líquida látex de caucho o en forma de caucho seco, para la manufactura de un gran número de productos indispensables para la sociedad, desde guantes industriales y quirúrgicos, mangueras, calzado, adhesivos, accesorios para autos, hasta su aplicación más prioritaria como neumáticos para todo tipo de transporte [1]. Colombia cuenta con alrededor de 28000 hectáreas para la producción de este recurso, donde 4283 hectáreas están en explotación actualmente, siendo el departamento del Caquetá el más importante con cerca del 50% del total que se explota, aproximadamente: 5139 toneladas anuales de caucho seco se producen. Se prevé que para el año 2018 la cantidad de Universidad Católica de Pereira 10 producción de caucho anual será de unas 30823 toneladas anuales en el país [2], de tal manera, que para dicho año, se lograría suplir la demanda nacional actual cercana a 28000 toneladas, solicitada para los diversos procesos industriales [3]. Tal hecho, lleva consigo la necesidad de aumentar el uso de ácido para el proceso de coagulación del látex. La cantidad de ácido requerida para el proceso de coagulación del látex, depende del estado de madurez de los árboles, de las condiciones climáticas, el tipo de suelo y la línea o casta del árbol [3, 1, 4, 5]; los árboles jóvenes dan un látex inestable y durante la sangría se debe añadir al mismo, algo de amoníaco para asegurar su estabilidad hasta su manufactura. La cantidad de amoníaco adicionado se tiene en cuenta al determinar la cantidad de ácido necesario para un efectivo proceso de coagulación. El látex de árboles maduros, que no ha recibido amoníaco, necesita aproximadamente 40 mL de ácido fórmico (al 90 %) por cada 100 litros de látex, visto así, el volumen de ácido fórmico pareciera ser insignificante, pero multiplicado por 5139 toneladas de demanda nacional anuales de látex y con un grado de toxicidad DL50 730mg/ kg, es realmente preocupante, pero aún más, para cuando se logre la producción de las aproximadamente 31 mil toneladas [3]. Diversos autores plantean el uso de ácido acético como agente coagulante [1, 6, 7], el cual tiene un menor grado de toxicidad (DL50 3310 mg/kg). Sin embargo, no se conoce el efecto que tiene la variación de la concentración de ácido fórmico y ácido acético en el proceso de coagulación del látex provenientes del caucho natural de la región del Caquetá (según la exploración hecha en las bases de datos: Science Direct, American Chemical Society, google school y Journal Scielo), con respecto a las propiedades térmicas. Lo ideal sería, que la variación de la concentración de ácido acético sea igual o repercuta en la mejora de estas propiedades en el proceso de coagulación, en comparación con el ácido fórmico. Actualmente, el problema radica en que los productores de caucho del departamento del Caquetá proceden de una manera no sistemática, realizando variaciones de las concentraciones y cantidades de agente coagulante, teniendo en cuenta exclusivamente el conocimiento empírico, haciendo uso aproximado de una concentración, sugerida por la Asociación de Reforestadores y Cultivadores de Caucho del Caquetá (ASOHECA). No obstante, esta práctica ha ocasionado grandes variaciones en las propiedades de la materia prima final, que establece la norma ISO 2000 [3]. El objetivo de este trabajo de investigación se centra en evaluar la variación de las concentraciones de dos ácidos y su repercusión en las propiedades térmicas, químicas (análisis de materia volátil y cenizas) en caucho seco como producto final, conjuntamente su identificación por espectroscopia infrarroja; siendo este trabajo un estudio que permite abarcar las demás características que establece la norma para este tipo de productos. III. Desarrollo del artículo A. Procedimiento experimental a. Materia prima: La recolección del látex de caucho, se realizó en ejemplares clasificados como clon IAN-710 de Hevea brasiliensis según el Instituto Amazónico de Investigaciones Científicas (SINCHI). Así, se seleccionaron 50 árboles de seis años de edad, cinco meses de explotación en promedio, y beneficiados por el sistema D2, es decir, sangrados cada dos días. Plantados, en el Centro de Investigaciones Amazónicas Macagual (CIMAZ), ubicado a 20 km de Florencia, al sur del departamento del Caquetá, a una altura de 326 m.s.n.m, con temperatura media anual de 25,5°C, humedad relativa media del 85 % y precipitación media de 3600 mm/año. b. Cantidad y tiempo de recolecta: Una vez sangrados los arboles mediante un corte de media espiral, el látex se recolectó en vasijas plásticas. Transcurrido el tiempo de sangrado, el látex se trasvasó a un frasco de vidrio ámbar, para una cantidad de colecta de 1.5 litros en total, el cual no tuvo previo tratamiento de conservación con amonio, sino que fue llevado de inmediato al laboratorio para su coagulación. Este mismo proceso se repitió al tercer día, para los ensayos por duplicado. c. Proceso de coagulación. El látex fue previamente filtrado mediante un tamiz de 400 µm, luego fue trasferido a doce beackers, donde se agregó a cada uno de ellos 100 mL de látex, seguidamente se adicionaron 3,5 mL de ácido acético y ácido fórmico a diferentes concentraciones (1 %, 3 %, 5 %, 10 %, 15 % y 20 % v/v), a un número igual de muestras, éste proceso se realizó por duplicado. Una vez trascurridas las 24 horas de coagulación, el caucho se lavó con agua, y posteriormente se lamino en un equipo de rodillos abiertos a un espesor de 2 mm, para finalmente ser secado por ocho días al aire libre bajo sombra. d. Análisis químico Materia volátil: se tomaron, de cada muestra laminada pesos aproximados entre 10,000 y 10,490 gramos; luego, las respectivas fracciones fueron llevadas al horno por 1 hora a 110°C, se sacaron para ser pesados, seguidamente se llevaron de nuevo al horno por 30 minutos, para nuevamente ser sacadas y pesadas. El proceso se repitió hasta lograr una diferencia de peso inferior a 1mg. Cenizas: se tomaron de cada muestra laminada pesos aproximados entre 10,000 y 10,490 gramos, luego fueron cortadas en tiras e incineradas a la llama, para ser introducidas en crisoles; seguidamente ser llevadas a la mufla a 550°C por 3 horas, hasta que las muestras quedaran convertidas en cenizas. e. Caracterización del caucho Las láminas de caucho natural se analizaron por Entre Ciencia e Ingeniería 11 espectroscopia de infrarroja (IR), en un equipo Thermo Scientific Nicolet 6700 equipado con una celda ATR SMART ORBIT NEXT con cristal de diamante, en un rango de número de onda entre 4000 cm-1 a 450 cm-1 . También fueron caracterizadas por análisis termogravimétrico (TGA), los cuales se realizaron en un equipo TA Instruments HR 2950 V6.1, aplicando una velocidad de calentamiento de 10 °C/min desde temperatura ambiente hasta 800°C, en atmosfera aire con un flujo de 60 mL/min. Un análisis de calorimetría diferencial de barrido (DSC) también les fue aplicado. Para DSC se usó un equipo NETZSCH STA 409C, a una velocidad de calentamiento de 10 °C/min en atmosfera de aire. concentraciones no aumenta el porcentaje de material volátil ni de cenizas, ya que no existe una concentración elevada de minerales en las muestras de caucho seco laminado, como es de esperarse en coagulo de caucho seco como materia prima final por algunos agricultores. Tabla I. resultados de porcentaje de material volátil y porcentaje de cenizas en las distintas muestras coaguladas con ácido fórmico y ácido acético B. Resultados y discusiones Aunque no se efectuaron análisis mecánicos, sí se observó, que las muestras coaguladas a concentraciones bajas de 1 %, 3 % y 5 % (v/v), eran más blandas en comparación con las muestras coaguladas a concentraciones altas de 10 %, 15 % y 20 % (v/v) las cuales tenían un comportamiento un poco más rígido; en especial la muestra coagulada con ambos ácidos a concentraciones de 20%. En la Fig. 1, se muestra la estructura química del poliisopreno, componente mayoritario (entre el 93 % a 95% en el caucho seco [5], el cual es objeto de discusión en los resultados por espectroscopia infrarroja. En las Fig. 2 y 3 se exponen los espectros IR para las diferentes muestras de látex coagulado, usando los diferentes ácidos, comparando la transmitancia relativa en función del número de onda con el propósito de visualizar los espectros. Fig. 1. Estructura química del poli (cis-1,4-isopreno) en el caucho natural según [5]. En la Tabla I se muestran los resultados del porcentaje de material volátil y el porcentaje de cenizas, obtenidos según los análisis realizados a las distintas muestras, bajo los criterios establecidos por las normas ISO. Los resultados señalan que las muestras coaguladas a las distintas concentraciones de ácidos, están dentro de los parámetros estipulados por la norma ISO 248 para el contenido de material volátil y la norma ISO 247 para el contenido de cenizas, los cuales establecen, que el porcentaje máximo de materia volátil debe ser igual o inferior a 0,8%, y que el porcentaje de cenizas debe ser igual o inferior al 1%. Un aumento en el porcentaje de agua en especial de minerales e impurezas, modifica las propiedades del caucho, teniendo que hacerse tratamientos térmicos previos para eliminar y mitigar dicho aumento, antes de llevarse a cabo un uso específico, según lo señala la Asociación Americana de Análisis y Materiales (ASTM) [5]. Sin embargo, cabe aclarar, que la desecación absoluta del caucho no ocurre, tan solo se tiene un equilibrio hídrico, el cual no es muy relevante. Por tanto y considerando lo anterior, se deduce que la influencia de ácido en las distintas Fig. 2. Espectro infrarrojo para el caucho seco coagulado con ácido acético. Fig. 3. Espectro infrarrojo para el caucho seco coagulado con ácido fórmico. Universidad Católica de Pereira 12 Las bandas de 3284 cm-1 y 3332 cm-1 en los espectros presentados en las Fig. 2 y 3 corresponden al ácido orgánico respectivo, a ácido fórmico y ácido acético, las regiones próximas a 2850 cm-1 y 2920 cm-1 corresponden a los estiramientos simétrico y asimétrico del grupo metilo, en la región de 2960 cm-1 se encuentra el estiramiento simétrico y asimétrico del C-H en el grupo funcional CH3. En la región de 1660 cm-1 y 1544 cm-1 se observa vibración de estiramiento asociado al doble enlace C=C, en 1444 cm-1 y 1376 cm-1 vibración de deformación asimétrica y simétrica del C-H en el grupo metilo, en 1126 cm-1 vibraciones del esqueleto C-C, en 1036 cm-1 deformación del enlace C-CH2 en el plano, en 840 cm-1 una banda fuerte asociado a la flexión del C-H fuera del plano en el grupo funcional C=C que se describe como típica cadena del cis-1,4 y en 756 cm-1 una banda que corresponde a vibraciones del enlace C-C en el grupo funcional CH2. Es posible inferir, como se mencionó anteriormente, que los ácidos orgánicos usados para la coagulación látex, están presentes en el caucho seco debido a sus bandas características (3284 cm-1 y 3332 cm-1), como se aprecia en los espectros IR realizados a cada muestra (ver Fig. 2 y 3). Este ácido presente en las muestras coaguladas, es producto de la estabilización ó neutralización que tienen los ácidos carboxílicos sobre la carga negativa presente en la capa periférica de proteínas y algunos grupos funcionales que quedan por fuera de la interfase caucho-agua según [8]. Pero, no se conoce específicamente qué sustancias o que otras sustancias no isoprénicos son afectadas por el uso de ácido. Fig. 4. Superposición de termogramas TGA y DTG para las muestras de caucho seco obtenidos del látex coagulado con ácido acético. Sin embargo, teniendo en cuenta los espectros infrarrojo, se puede deducir que independientemente de la concentración de ácido y el tipo de ácido usado, no se modifica la estructura química molecular principal del caucho (poli cis-1,4isopreno, ver Fig. 1), ya que se muestran las mismas bandas características, propias de esta estructura elucidadas por IR, en trabajos e investigaciones realizadas por [1,9,10,11]. Además, se podría incluso utilizar concentraciones más bajas de ácido para la coagulación del látex. Por otra parte, la neutralización de cargas negativas, por los ácidos carboxílicos, si bien, no permiten que se incremente en el porcentaje de cenizas, ya que esta interacción desplazaría las cargas positivas generadas por algunos minerales tales como K, Ca, Fe entre otros, sobre la superficie de la interfaz caucho-agua, sin embargo la concentración de ácido, tampoco marca influencia en este hecho, ya que el porcentaje de cenizas de algunas concentraciones de ácidos es similar, como se muestra en la Tabla I. En las Fig. 4 y 5 se muestran los resultados de TGA y DTG obtenidos para algunas muestras de caucho seco provenientes del látex coagulado con ácido acético y ácido fórmico. Entre Ciencia e Ingeniería Fig. 5. Superposición de termogramas TGA y DTG para las muestras de caucho seco obtenidos del látex coagulado con ácido fórmico. 13 Los termogramas para las diferentes muestras presentadas en las Fig. 4 y 5, reflejan claramente dos eventos presentes en cada muestra analizada; el primer evento, a 120 °C, señala una perdida inicial de masa entre 2% y 8% en las distintas muestras, atribuidas a pérdidas de agua y monómeros, lo cual ha sido reportado por [5], en especial agua y elementos no isoprénicos como proteínas, alcoholes y compuestos de bajo punto de ebullición; luego se presenta una degradación térmica inicial y final entre 340 °C y 465 °C, con más del 98 % de pérdida de masa en las distintas muestras, correspondiente al proceso de pirolisis oxidativa que sufre la cadena polimérica del caucho como lo refiere [7]. Hecho que se asemeja en las investigaciones realizadas por [12,13], pero que muestran una degradación inicial y final entre 385 °C a 475°C para el caucho natural de malasia, lo que sugiere que el caucho utilizado en este trabajo, es térmicamente un poco menos estable, aunque la estabilidad térmica va a depender del tipo de clon de caucho utilizado, así lo indica [5]. No obstante, existen mezclas de caucho natural con otros elementos como nanocompuestos de caucho con arcillas, caucho estireno-butadieno, los cuales le otorgan al caucho natural una mayor estabilidad térmica, así lo demuestran los estudios realizados [8,14]. Los termogramas DTG señalan, que la temperatura máxima de degradación térmica para las muestras coaguladas a diferentes concentraciones de ácido fórmico y ácido acético son muy similares entre sí, donde la degradación oscila en un rango de temperaturas entre 407,7 °C a 413,9 °C para ácido fórmico, y ntre 401,5 °C a 409,7 °C para ácido acético; no obstante, la diferencia térmica entre las distintas concentraciones de ácido y entre ácidos, no es muy significativa para el propósito de éste trabajo. Por último se muestra, en todos los termogramas, la degradación termo-oxidativa del caucho a temperaturas por encima de 550 °C, donde el porcentaje materia restante es la de elementos o compuestos inorgánicos, como óxidos de minerales, siendo el valor de residuos obtenidos de 0,14 % y 0,95 % m/m, donde el contenido más bajo y más alto es para las concentraciones de 15 % y 1 % de ácido fórmico y, 0,64 % y 0,31 % m/m, siendo el contenido más alto y más bajo, para una concentración de 20 % y 3 % de ácido acético; concentraciones de minerales e impurezas, que se mantiene en el rango según la norma ISO 247 y que juegan un papel fundamental en las propiedades del caucho como se había mencionado anteriormente. Dado lo anterior, es posible deducir y concluir, que la degradación y la estabilidad térmica de las muestras coaguladas a distintas concentraciones de ácido es muy similar, ya que el margen de materia perdida con el incremento de la temperatura, no es muy distante, además, se presentan los mismo eventos representativos en el análisis del caucho natural en otras investigaciones. En la Fig. 6 y 7 se muestran los resultados obtenidos por DSC para los cauchos obtenidos del látex coagulado con ácido fórmico y ácido acético. Fig. 6. Termograma de calorimetría diferencial de barrido (DSC) para los cauchos obtenidos del látex coagulado con ácido acético. Fig. 7. Termograma de calorimetría diferencial de barrido (DSC) para los cauchos obtenidos del látex coagulado con ácido fórmico. La característica a la que el caucho natural debe gran parte de sus excelentes propiedades y que a su vez es consecuencia de su regularidad estructural, es su tendencia a una leve cristalización, la cual tiene lugar a temperaturas por encima de 10 °C como lo indica [15]. El primer pico Universidad Católica de Pereira 14 que se observa en la Fig. 6 y 7, dado en todas las muestras, es de naturaleza endotérmica, y corresponde a la fusión de ésa pequeña fase cristalina, según lo menciona [16]. Aunque este evento no es observado en los termogramas TGA; la temperatura de las muestra (caucho natural) sufre un retraso, observado en la señal DSC, mientras se continua el programa de calentamiento, teniendo lugar en estos termogramas a temperaturas entre ± 65 °C y ± 77 °C, realizadas a las muestras coaguladas con los diferentes ácidos y concentraciones; a medida que se sigue aumentando la temperatura y a su vez la sensibilidad a la oxidación, hasta un punto, donde se presentan dos picos consecutivos de carácter exotérmico entre temperaturas de 315 °C y 320 °C para el segundo pico, y 355 °C a 360 °C para el tercer pico en todas las muestras, los cuales son el resultado del ataque del oxígeno sobre los grupo metilenos de la cadena polimérica, según lo mencionan [17]. Y finalmente se presenta con el incremento de la temperatura, un semi pico a temperaturas por encima de 465°C en todas las muestras, y que se corrobora con los resultados de TGA, mostrando la degradación termo-oxidativa del caucho, específicamente, la ruptura y destrucción de enlaces simples y covalentes de la red polimérica del caucho, como es de esperarse a esta temperatura según lo señala [17]. Los estudios previos hechos por DSC, permitieron además determinar el área bajo la curva en los distintos picos, mediante el uso de la línea base para cada muestra analizada; esta área es proporcional al valor de la entalpia de cada evento (fusión y descomposición del caucho natural), donde el área para el segundo y tercer pico Fig. 6 y 7, en todas las muestras osciló entre 77 µJ*s/mg y 82,5 µJ*s/ mg y para el primer pico entre 64 µJ*s/mg y 78,9 µJ*s/ mg, aéreas que aunque son distantes para el primer pico, es dependiente de la cantidad de masa de muestra usada durante el análisis, ya que muestran la cantidad de energía necesaria para que se lleve a cabo el respectivo proceso o evento químico presente durante el calentamiento progresivo del caucho natural [15]. No obstante y teniendo en cuenta estas aéreas se puede deducir que aunque son distantes, se presentan los mismo eventos térmicos tanto en DSC como en TGA y que tienen lugar a la misma temperatura y tiempo. IV. Conclusiones Los resultados encontrados en los espectros IR y en los termogramas TGA y DSC, demuestran, no sólo que las técnicas térmicas son precisas, permitiendo caracterizar y diferenciar cualquier proceso o evento químico y térmico, sino que además, para efectos de este estudio, permitió definir, que no existe una diferencia en la variación de la concentración de ácido fórmico y ácido acético en el proceso de coagulación del látex, teniendo en cuenta los resultados térmicos. Agradecimientos Los autores expresan sus agradecimientos a la Entre Ciencia e Ingeniería Universidad de la Amazonía por facilitar los laboratorios para los análisis de las muestras. Igualmente, a la Universidad Nacional de Colombia sede Medellín, por los análisis térmicos realizados a las muestras de caucho. Gracias también a la Asociación de Reforestadores y Cultivadores de Caucho del Caquetá “ASOHECA”, por la laminación de las muestras coaguladas, la determinación del material volátil y el suministro de ácido fórmico. Referencias [1] Giraldo, D. & Velásquez, S. (2010). analisis de las caracteristicas fisicoquimicas de caucho natural colombiano obtenido de tres variedades clonales de Hevea brasíliensis y evaluacion de sus tiempo obtimos de vulcanizacion. Grupo de materiales polimericos, Departamento de ingenieria metalurgica y de materiales, Universidad de Antioquia, COLOMBIA 1:1-8 [2] Quesada, I. ; Aristizabal, F. & Montoya, D. (2012). Caracterizacion de dos parametros del latex de clones de Hevea brasiliensis. Revista Elsevier 15:1-8. [3] Martinez-Garnica A. & Garcia-Rubio F (2006). Investigaciones en el cultivo de caucho en la orinoquia y norte amazonico. boletin de investigacion 4:1-10. [4] Tungngoen, K. ; Viboonjun, U. ; Kongsawadworakul, P. ; Katsuhara, M. ; Julien, J. ; Chrestin, H. & Narangayavana, J. (2011). Hormonal treatment of the bark of rubber trees (Hevea brasiliensis) increases latex yield through latex dilution in relation with the differential expression of two aquaporin genes. Journal of Plant Physiology 168:1-9. [5] Colonna, P. (2010). La Quimcia verde. Págs. 211-235 en: J. S. Beuve & L. V. Fredéric (eds). Editorial Acribia, S.A. Zaragoza ESPAÑA. [6] Martins, M. A ; Dall´Antonia, A. C. & Mattoso, L. C. (2002). caracterizacao mecanica de compositos de borracha natural/fibra de sisal. Congreso Brasíleño de Ingenieria y Ciencia de Materiales:1-7. [7] Malmonge, E. & Rogérico, M. (2006). comparacao entre a borracha natural obtida do latex da Hancornia speciosa gomes e Hevea brasíliensis. Congreso Brasíleño de Polimeros :1-2 [8] Chirinos-Collantes, H. D. (2008). Estudio de la obtencion de un nanocompuesto de caucho natural reforzado con arcilla. Tesis pregrado, Universidad Nacional del Callao. Perú: 1-146. [9] Egboh, S & Mukherjee, A (1991). Adhesion Studies of Tyre Cords with Rubber. Synthesis and Characterization of Natural Graft Copolymers. Department of Textile Techonology. New Delhi, India 6: 1-8. [10] Oliva, L.C.S ; Arruda, E. J. ; Favaro, S.P. ; Costa, R.B. ; Goncalves, P.S. & Job, A.E. (2006). Evaluation of thermal behavior of latex membranes from genetically improved rubber tre (Hevea brasiliensis). Revista Elsevier 27:1-8. [11] Fereshteh, M. ; Mercedeh. M & Taghvaei-Ganjali, S. (2013). Investigation of correlation between rheological properties of rubber compounds based on natural rubber/styrene-butadiene rubber with their thermal behaviors. International Journal of Industrial Chemistry 4:1-16. [12] Romero, P. & Desireé, R. (2002). Modificacion de las propiedades de polipropileno con caucho natural. pregrado pregrado, Universidad Central de Venezuela:1-106. [13] Brazier, D. W (1990). Applications of Thermal Analytical Procedures in the Study of Elastomers and Elastomer System. Págs. 408-509 en: D. W. Brazier (ed.). Differential thermal analysis (DTA) and differential scanning calorimetry. Dunlop research, Sheridan park research community. Mississauga, Ontario Canada. [14] Mansilla, M. A. (2012). Influencia de la microestructrua Facultad en las propiedades mecanicas y térmicas de mezclas caucho natural y estireno butadieno. Tesis Doctoral. de Ciencias Exactas y Naturales. Universidad de Buenos Aires. Argentina:1-150. 15 [15] Yang, J. & Roy, C. (1996). A new method for DTA measurement of enthalpy change during the pyrolusis of rubbers. Revista Elservier 28:1-14. [16] Narathichat, M. ; Kummerlöwe, C. ; Vennemann, N. & Nakason, C (2010). Thermoplastic Natural Rubber Based on Polyamide-12: Influence of Blending Technique and Type of Rubber on Temperature Scanning Stress Relaxation and Other Related Propertiees. Center of Excellence in Natural Rubber Technology, Faculty of Science and Technology. Prince of Songkla University. Thailand:1-10. [17] Martinez-Solano, J. F. & Bautista-Betancur, M. I. (2007). Estudio Exploratorio para el Uso de Copolimeros Estireno-Caucho como recubrimientos en Laminas de Metal de Hierro. Trabajo de Grado. Facultad de ingenierias. Universidad Industrial de Santander. Colombia:1-81. Ana Milena Camacho Tàmara nació en Florencia Caquetá Colombia, el 21 de Mayo de 1992. Se graduó en la Institución Educativa Parroquial de San José del Fragua y actualmente se encuentra terminando sus estudios de Química en la Universidad de la Amazonía. Próximamente iniciará sus estudios de Maestría en Química en la Universidad del Quindío. Henry Reyes Pineda es ingeniero Químico egresado de la Universidad Nacional de Colombia, Sede Manizales con Especialización en Educación Ambiental, Especialización en Ingeniería Electroquímica y Corrosión, Diploma de Estudios Avanzados en Tecnologías de Membranas, Electroquímica y medio Ambiente Seguridad Nuclear y con un Doctorado en Ingeniería Química y Nuclear de la Universidad Politécnica de Valencia, España. Actualmente es profesor de tiempo completo de la Universidad del Quindío, Armenia, Colombia y Director de la Maestría en Química desde el 2010 y hace parte del Grupo Químico en Investigación y Desarrollo Ambiental. Ha sido docente de la Universidad de Caldas, Universidad Nacional, Universidad Católica de Pereira 47 Sede Manizales y Universidad Autónoma de Manizales. Entre sus áreas de trabajo investigativo se encuentran La Ingeniería Electroquímica, Los Procesos ambientales, el Tratamiento de residuos sólidos y líquidos, el Diseño de Reactores, entre otros. El Doctor Reyes Pineda, se graduó en el 2007, obteniendo la máxima calificación en su Tesis Doctoral: “Cum Laude”Ha sido profesor visitante en tres oportunidades a la Universidad Politécnica de Valencia, España y en dos ocasiones a la Universidad de santa Cruz del Sur, Brasil, desarrollando actividades académicas e investigativas. Igualmente ha participado como conferencista en diferentes congresos nacionales e internacionales. Universidad Católica de Pereira 16 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 16 - 22 Simulación de un proceso de logística inversa: recolección y acopio de envases y empaques vacíos de plaguicidas1 Simulation of a reverse logistics process: collecting and stockpiling containers and empty pesticides packaging J. D. Silva y E. D. Contreras Recibido Febrero 12 de 2015 – Aceptado Septiembre 23 de 2015 Resumen — Este artículo presenta el estudio realizado al proceso de recolección y acopio de residuos de plaguicidas en la unidad de riego Pantano de Vargas- Boyacá Colombia. Este sistema puede incorporarse dentro de un proceso de logística inversa (LI), debido al problema de manejo y tratamiento inadecuado de estos residuos por parte de los agricultores. Para el análisis de la situación planteada, se realizó una simulación del proceso actual y a partir de este, se recrearon dos escenarios posibles de operación de los recursos humanos y físicos en dicho proceso. Mediante la evaluación de alternativas de mejora, se planteó una configuración factible, que proporcionó la mayor disminución del tiempo total del proceso de recolección y acopio de los residuos. Con el escenario propuesto se puede lograr una mejora del 46% en el tiempo total del proceso, al experimentar con un modelo que incluye un operario y un vehículo adicional a las condiciones actuales del proceso. Palabras clave — simulación de eventos discretos, logística inversa, plaguicidas, retorno de envases. Abstract— this article presents a study carried out over the recollection and accumulation of the pesticides residues process in the irrigation unit known as Pantano de Vargas – Boyacá Colombia. This system can be incorporated in a process of 1 Producto derivado del proyecto de investigación “Simulación del proceso de logística inversa de envases y empaques vacíos de plaguicidas en la unidad de riego Pantano de Vargas de Boyacá-Colombia”. Presentado por el Grupo de Investigación LOGyCA de la Universidad de Boyacá en convenio con COLCIENCIAS. J.D. Silva docente en el Programa de Ingeniería Industrial, de la universidad de Boyacá, Tunja (Colombia); email: [email protected]. co. E.D. Contreras Director del Programa de Ingeniería Industrial, de la universidad de Boyacá, Tunja (Colombia); email: econtreras@uniboyaca. edu.co Entre Ciencia e Ingeniería reverse logistics due to the problem of bad management and treatment of those residues by cultivators. For the analysis of this situation, a simulation of the current process was proposed, and based on it, two possible stages- scenes of operations of human and physical resources in that process were created. Through the evaluation of alternatives for the improvement, a possible configuration that provided a higher decrease of total time of the process of recollection of residues was established. With the proposed scenery, it is possible to reach an improvement of 46% in the total time of process, experimenting with a model that includes an operator and an additional vehicle to the current process conditions. Key words— discrete events simulation, reverse logistics, pesticides, return of packaging. I. Introducción E n las últimas décadas se ha visto un crecimiento constante en el desarrollo de investigaciones relacionadas con Logística Inversa (LI), tal como lo afirma [1]. Por consiguiente autores como [2] –[7], han adelantado distintas investigaciones con el fin de dar una visión detallada sobre las aplicaciones y problemas asociados con LI y asimismo dar una base sobre el diseño de sus procesos en diferentes sectores económicos, describiendo una extensa lista de sistemas y estructuras de ella existentes en la literatura. A lo largo de los años, varios autores han realizado sus investigaciones con el fin de lograr una definición de LI. La más utilizada es la propuesta por [8] en el Reverse Logistics Executive Council, definida como “El proceso de planificación, ejecución y control eficiente y rentable del flujo de materias primas, inventario en proceso, productos 17 terminados e información relacionada desde el punto de consumo hasta el punto de origen con el fin de recuperar valor o realizar una correcta eliminación”. En lo concerniente a LI, se han llevado a cabo investigaciones de carácter cualitativo [9]-[12] cuyo objetivo se centra en evaluar sistemas de LI implementados actualmente en las empresas. De igual forma se han llevado a cabo estudios con enfoque cuantitativo [13][15], con el fin de diseñar nuevas redes de LI. Por otra parte, al momento de aplicar LI, las empresas buscan generar beneficios económicos, logísticos, financieros y ambientales [16]. De esta forma, una manera correcta de lograr estos beneficios es a través de la mejora ambiental de productos y procesos por medio de la aplicación de sistemas de LI, como por ejemplo la aplicación en los procesos de recolección y disposición de envases de plaguicidas, utilizando la simulación como una herramienta apropiada para diseñar procesos y resolver problemas de LI. Según [1], para modelar la complejidad de los problemas de LI y sus procesos, la simulación puede ser una herramienta muy útil. Debido a lo anterior, varios autores han empezado a centrar sus esfuerzos en realizar estudios de LI donde la simulación se convierte en una herramienta clave para el apoyo a la toma de decisiones dentro de las organizaciones [17], [18]. Existe una gran oportunidad de aplicar metodologías de modelado para la gestión de los problemas en LI relacionados con la recolección y disposición de residuos de plaguicidas, con el fin de evitar el contacto directo de estos desechos con los seres vivos. Autores como [19]-[21], han adelantado investigaciones sobre el tema donde afirman que ha aumentado la preocupación por los riesgos que pueden generar tanto en los seres humanos, como en el medio ambiente, la eliminación inadecuada o el tratamiento indebido de estos residuos, convirtiéndose en un riesgo para la salud humana, debido a que los agricultores reutilizan estos envases para uso doméstico. Del mismo modo autores como [22], [23], desarrollan investigaciones con el objetivo de evaluar e identificar los factores que llevan a los agricultores a realizar la devolución de envases y empaques de plaguicidas, al igual que la descripción de prácticas más comunes frente al manejo de estos residuos. Por otra parte [24], combinan LI con la recolección y disposición de envases de plaguicidas, desarrollando una investigación con el objetivo de diseñar un sistema de LI para la recolección de envases y empaques vacíos de plaguicidas en una unidad de riego del departamento de Boyacá – Colombia. Dadas estas consideraciones, este artículo presenta los resultados de una investigación desarrollada en la unidad de riego Pantano de Vargas del departamento de Boyacá – Colombia, donde actualmente se presenta un problema de manejo y tratamiento inadecuado de los residuos de plaguicidas por parte de los agricultores. De igual forma el proceso que actualmente realiza la empresa encargada de la recolección, acopio y disposición final de estos residuos es totalmente empírico, ya que no utiliza ninguna herramienta tecnológica ni ingenieril para la planificación de sus jornadas de recolección, lo que ocasiona demoras en el proceso y dificultades en la medición de la eficacia de dichas jornadas. Debido a lo anterior, se desarrolló un modelo de simulación del proceso de recolección de los envases y empaques vacíos de plaguicidas que se realiza actualmente en la zona bajo estudio, con el fin de diagnosticar el estado actual del proceso y a partir del modelo desarrollado generar escenarios donde se presenten propuestas de mejora en cuanto a aspectos técnicos, para de esta manera, encontrar un escenario que mejore el tiempo total de ejecución de las jornadas de recolección, sin la inclusión de variables de costos. La zona bajo estudio es la vereda Pantano de Vargas, ubicada a 12 km del Municipio de Paipa y a 42 km de la capital del departamento de Boyacá - Colombia, hace parte de la asociación de usuarios del distrito de riego y drenaje del alto Chicamocha y Firavitoba denominada Usochicamocha, que comprende municipios como Duitama, Paipa y Tibasosa. En este sentido, el presente artículo se estructura de la siguiente manera: en la sección dos (2) se muestra la estructura metodológica, donde se explica cada una de las fases que se siguió para el desarrollo del modelo de simulación y su posterior experimentación. Luego, en la sección tres (3) se muestran de manera sintetizada los principales resultados de la investigación así como las propuestas de mejora de acuerdo con los escenarios generados del modelo principal. Finalmente, en la sección cuatro (4) se presentan las principales conclusiones, producto de la investigación desarrollada. II. Metodología La investigación desarrollada es un estudio de caso según los lineamientos de [25], la cual maneja dos niveles de investigación: descriptivo y experimental. Para el desarrollo de la simulación del proceso de recolección y acopio de envases y empaques vacíos de plaguicidas, se siguió la metodología expuesta por [26], compuesta por las siguientes etapas, tal como se observa en la Fig. 1: Fig. 1. Metodología para simulación basada en [26]. Con esta metodología se procedió al desarrollo del proyecto que consta de las siguientes etapas: Universidad Católica de Pereira 18 Etapa 1. Definición del sistema. En esta etapa se realizó un diagnóstico del proceso que se desarrolla actualmente en la unidad de riego Pantano de Vargas y a través de la observación directa en las jornadas de recolección adelantadas por la empresa encargada, se logró describir detalladamente por medio de un diagrama de flujo, el proceso actual de recolección de envases y empaques vacíos de plaguicidas. En ese mismo sentido, se realizó la recolección de información en la zona bajo estudio con el fin de identificar el número de agricultores involucrados y las técnicas utilizadas en el acopio y entrega de desechos de plaguicidas a la empresa recolectora. Posteriormente, se realizó un mapeo de la zona, donde se llevó a cabo un muestreo intencional o de conveniencia siguiendo los lineamientos expuestos por [27], logrando la aplicación de 12 encuestas dirigidas a los agricultores de la zona con mayor experiencia e influencia en el tema de plaguicidas. Por último, se logró determinar a través de toma de coordenadas, las rutas utilizadas en las jornadas de recolección. Etapa 2. Construcción del modelo. Luego de realizar el diagnóstico del proceso, se construyó un modelo preliminar para el proceso de LI bajo estudio en el software especializado Flexsim versión 5, teniendo en cuenta el diagrama de flujo obtenido en la etapa anterior. Etapa 3. Recolección de datos. Siguiendo los lineamientos de [28], se realizó una medición del trabajo a través de un estudio de tiempos de las actividades que componen el proceso de recolección, realizando una toma de datos durante tres ciclos correspondientes a tres jornadas de trabajo, con un criterio de cronometraje continuo para la medición de dichos tiempos, donde se lograron obtener 93 datos de las actividades que son repetitivas en cada finca generadora. Asimismo, se recolectaron datos sobre cantidades recogidas en cada finca, capacidad del vehículo y centro de acopio, recursos utilizados en el proceso y demás datos relevantes para el desarrollo del modelo. Etapa 4. Implementación del modelo en la computadora. En primera instancia, con ayuda de la herramienta Stat::Fit del software para simulación Promodel, se determinó la función de probabilidad que representa de forma correcta el comportamiento de cada una de las actividades que comprenden el proceso bajo estudio, donde seguidamente se realizó un proceso de verificación por medio de las pruebas de bondad de ajuste KolmogorovSmirnov y Anderson Darling. Posteriormente se realizó la configuración interna de cada uno de los objetos del modelo preliminar con el fin de representar los tiempos de las actividades del sistema real en el modelo. Fig. 2. Diagrama de proceso de recolección de envases y empaques vacíos de plaguicidas. Enseguida se modificaron los objetos del modelo base por objetos 3D, con el fin de que el modelo de simulación desarrollado sea similar al sistema real bajo estudio. Para finalizar esta etapa se realizó la estabilización del modelo, aplicando la técnica expuesta por [29]. Etapa 5. Verificación y validación. En esta etapa se verifica, con ayuda del encargado del proceso de la empresa recolectora, que el modelo de simulación realizado represente el proceso de recolección, donde se constata que se hayan incluido todas aquellas variables que inciden en el proceso de LI y que van de acuerdo con la delimitación de la investigación. Una vez verificado el modelo, se procede a la validación del mismo. La variable de validación fue el tiempo total del proceso de LI, donde se realizó una prueba piloto de 10 corridas del modelo con el fin de determinar el número de réplicas necesarias para la validación cuyo valor es de 15 réplicas, posteriormente se realiza un análisis de medias a través de una prueba t Student para muestras independientes, corroborando si hay igualdad en las medias del sistema real y el modelo desarrollado en Flexsim. Etapa 6. Experimentación. Sobre el modelo desarrollado se plantearon diferentes escenarios posibles cambiando la asignación de recursos físicos y humanos, donde posteriormente se llevó a cabo una validación de dichos escenarios, a través de la determinación del número necesario de réplicas, estableciendo un nivel de confianza del 95% y un nivel de significancia del 5% para cada uno de los escenarios. De esta manera, se eligieron las alternativas que generaron mejores resultados en cuanto a minimizar el tiempo total de ejecución del proceso de LI. III. Resultados y Discusión A. Descripción del proceso actual de recolección El proceso de recolección y acopio de envases y empaques Entre Ciencia e Ingeniería 19 vacíos de plaguicidas que se desarrolla actualmente en la unidad de riego Pantano de Vargas, es realizado totalmente de forma empírica, ya que no tiene en cuenta las actividades propias de LI como lo son devolución al proveedor, reciclaje, reutilización, entre otras. Además, no se utiliza ninguna herramienta tecnológica o de ingeniería que aporte tanto en la planificación como en la ejecución de las jornadas de recolección. Para el presente estudio se delimitó el proceso en 3 etapas: alistamiento, recolección y acopio, en lo que respecta a la etapa de disposición final de los residuos, esta no se tuvo en cuenta debido a que se realiza en un lugar diferente a la zona bajo estudio y por lo tanto no se incluyó en esta investigación. En la figura 2 se muestra el diagrama de flujo del proceso bajo estudio, donde se evidencian todas las actividades que comprenden las etapas anteriormente mencionadas. Asimismo, se observa el tiempo de ejecución de cada una de las actividades. - Fase de alistamiento. En primera instancia, en esta fase, se ejecuta una evaluación al transporte, compuesta inicialmente de una revisión y verificación de las medidas mínimas de seguridad que debe tener el vehículo que va a recolectar los residuos de plaguicidas. Posteriormente se diligencia el formato de remisión de residuos peligrosos (RESPEL) y para comenzar con el recorrido a las fincas, finalmente se aprovisiona de combustible el vehículo. - Fase de recolección. Inicialmente, por medio de una volqueta, se realiza el recorrido por cada una de las fincas de la unidad con el fin de que el generador haga entrega de los residuos de plaguicidas a la empresa encargada. En el trabajo de campo se evidenció que sólo 2 de cada 11 fincas entregan sus envases clasificados y con el tratamiento adecuado, situación que ocasiona dificultad en el proceso de clasificación y procesamiento de los envases y además se incumple con el artículo 7 de la Resolución 693 [30]. Posteriormente el operario recolector ubica el sitio donde se encuentran situados los residuos de plaguicidas, para efectuar una pre-inspección de los residuos y observar que sean exclusivamente residuos de plaguicidas, además de detallar el estado en que se encuentran estos residuos. En el momento de tener asegurados los desechos, se procede a trasladarlos hasta el vehículo, donde se verifica el tipo y cantidad de los residuos entregados, diligenciando un acta de entrega de RESPEL firmado por el agricultor que realiza la entrega. - Fase de acopio. Al finalizar el recorrido por la totalidad de las fincas, el vehículo se desplaza al centro de acopio correspondiente. En primera instancia en el centro de acopio, se ubica el sitio adecuado donde se realiza el descargue de los residuos recolectados. Posteriormente, el operario recolector procede a ordenar los residuos en el centro de acopio para apilarlos de forma segura. B. Modelo de simulación Inicialmente se llevó a cabo una recolección de datos por medio de un estudio de tiempos, logrando recolectar 93 datos de aquellas actividades que son repetitivas en cada finca generadora como lo son: desplazamiento a cada finca, transporte a lugar de acopio en finca, pre-inspección de los residuos y transporte de los residuos hasta el vehículo, las cuales pueden considerarse de naturaleza estocástica o probabilística y son representadas a través de distribuciones de probabilidad. En la figura 3, se puede observar el resultado del estudio de tiempos donde se evidencia el tiempo estándar de cada una de las actividades que comprenden el proceso de LI. Se logró determinar el tiempo estándar del proceso de LI correspondiente a 365,2 min, además se identificó la actividad “desplazamiento a cada finca generadora de RESPEL”, como cuello de botella del proceso, pero debido su naturaleza esta actividad siempre poseerá el mayor tiempo de ejecución. Debido a lo anterior, se deben intervenir las demás actividades, con el fin de reducir el tiempo de ejecución de cada una de ellas y así reducir el tiempo total del proceso. Por otra parte, para los datos recolectados de las actividades que se realizan una única vez en cada jornada de recolección, se tomó la media como una estimación del comportamiento de las variables. Debido a la disponibilidad de datos y tiempo sólo se lograron obtener tres datos de dichas actividades, por ende dichas variables no podrán ser ajustados a una distribución de probabilidad para representar su comportamiento dentro del proceso. Fig. 3. Tiempos estándar de las actividades del proceso de LI. De igual forma, se determinaron las distribuciones de probabilidad a las que se ajustan las actividades de naturaleza estocástica, a través de la herramienta Stat::Fit del software Promodel y se configuraron los objetos del modelo que representan dichas actividades. En la tabla 1 se observan las distribuciones de probabilidad a las que se ajustan estás actividades y asimismo los resultados de las pruebas de bondad de ajuste Kolmogorov- Smirnov y Anderson Darling. Universidad Católica de Pereira 20 TABLA I Distribución de Probabilidad de actividades estocásticas Donde: - S: Desviación estándar de la muestra inicial (10 corridas) Posteriormente se llevó a cabo una etapa de validación del modelo, iniciando con el calculó de las réplicas “(1)” necesarias para realizar una prueba t Student para dos muestras con varianzas iguales bajo la hipótesis nula que existe igualdad de medias en las dos muestras, con un nivel de significancia del 5% y nivel de confianza del 95%, tomando como variable de decisión el tiempo total del proceso de recolección. Finalmente en la Fig. 4 se observa el modelo final acondicionado con objetos 3D relacionados con el proceso de LI, reemplazando los objetos utilizados de la librería de Flexsim por objetos 3D. Las figuras que reemplazaron la estructura de objetos fueron obtenidos de la librería Google SketchUp. Fig. 4. Vista frontal del modelo de simulación del proceso de LI. Entre Ciencia e Ingeniería - t (n-1,∝/2) : es la distribución de probabilidad de t Student para un nivel de significancia α y n-1 grados de libertad. - ε: Error relativo admisible En la Tabla II, se observa la prueba t para validar el modelo, donde se concluye que no existe diferencia entre el modelo desarrollado en el software Flexsim y el sistema real, ya que el estadístico t (0.24) es menor al valor critico (4.30), además se afirma que el modelo de simulación desarrollado representa confiablemente al proceso actual de recolección y acopio de residuos de plaguicidas y sirve como base fundamental para posibles mejoras que se puedan realizar al proceso actual. 21 TABLA II Prueba t para validación del modelo una mejora en el proceso del 46%. El modelo propuesto produce las mejores y más viables condiciones adaptables al sistema real que genera la mayor reducción del tiempo total del proceso de recolección y acopio de los residuos de plaguicidas. TABLA III Análisis de estados de los escenarios propuestos Al realizar el análisis de salida de datos del vehículo recolector de RESPEL que representa la actividad cuello de botella, se pudo evidenciar que el 73,7% del tiempo total del proceso, corresponde a los desplazamientos que realiza el vehículo de finca a finca cronometrando un tiempo de 271,46 min. Asimismo, se pudo observar que del tiempo total del proceso de recolección, el vehículo utiliza el 19,5% (71,82 min) para cargar los residuos que son generados en cada finca. Finalmente, solo el 6,8% del tiempo del proceso el vehículo no realiza ninguna actividad, es decir existe un tiempo ocioso o improductivo de 25,04 min. De igual manera se realizó un análisis de salida de datos para el operario recolector, donde se evidenció que el 80,79% del tiempo total del proceso (297,58 min), el operario debe esperar a que se desarrollen ciertas actividades como transporte finca a finca y diligenciamiento de formato de entrega de RESPEL, para poder desarrollar las actividades que se le tienen asignadas. Por otra parte, para realizar la actividad correspondiente al transporte al lugar de acopio en finca, el operario emplea el 6,42% del tiempo total del proceso equivalente a 23,64 min y para desarrollar la actividad de transporte hasta el vehículo, el operario recolector utiliza 25,89 min, es decir el 7,03% del tiempo total del proceso. Con base en la información anterior, se generaron dos escenarios posibles para la mejora del proceso actual en términos de reducción del tiempo total del proceso. El primer escenario se caracteriza por adicionar un operario que apoye las actividades de pre inspección y recolección de los residuos generados en cada finca. El segundo escenario se caracteriza por adicionar un vehículo para la recolección que en conjunto con el segundo operario adicionado en el escenario 1, tomarán una ruta alterna para recorrer 6 de las 11 fincas generadoras de la unidad de riego. En la tabla III se observan los resultados del análisis de salida de datos de los diferentes escenarios. La mejora más representativa se puede observar en la disminución del tiempo de proceso en cada escenario, siendo el número 2 el más favorable con 168.86 min, respecto al modelo del sistema actual, este escenario representa IV. Conclusiones El proceso de recolección y acopio de envases y empaques vacíos de plaguicidas actual, no se puede considerar como LI, debido a que no aplica actividades propias de la misma y no se utiliza ninguna herramienta tecnológica o ingenieril para la planificación y ejecución de las jornadas de recolección. El proceso bajo estudio se compone de 3 etapas: alistamiento de los recursos para la jornada, recolección de los residuos generados en cada finca y acopio del total de los residuos recolectados en la jornada. La principal causa del alto tiempo de ejecución de las jornadas de recolección se debe al desplazamiento a cada finca generadora de RESPEL, con un tiempo total de proceso de 233,3 min, esto se debe a la naturaleza de dicha actividad. Por otra parte el operario tiene un tiempo de espera de 297,58 min para poder realizar la pre-inspección y recolección de RESPEL en cada finca generadora, lo cual se debe a la actividad de desplazamiento hacia las fincas. Mediante la experimentación con el modelo de simulación, se plantea el escenario 2 como mejora sustancial con el objetivo de reducir el tiempo total del proceso, este cuenta con 2 operarios recolectores y 2 vehículos, donde se asigna un operario y un vehículo para cada ruta, con el fin de dividir el número de fincas generadoras de la unidad bajo estudio y así lograr una reducción en el tiempo del 46% lo que corresponde a 168.86 min. Se recomienda realizar un estudio sobre los costos que generaría el montaje de este escenario para evaluar la viabilidad de realizar la implementación en el sistema actual y analizar el costo-beneficio que esta traería. Para futuras investigaciones se recomienda adelantar estudios cuyo objetivo sea el diseño de una red de logística inversa para el proceso de recolección y acopio. Asimismo, investigaciones encaminadas a determinar la ruta óptima para realizar las jornadas de recolección. Universidad Católica de Pereira 22 Referencias [1] D.S. Rogers, B. Melamed and R.S. Lembke. “Modeling and analysis of reverse logistics,” Journal of Business Logistics, vol. 33, no. 2, pp. 107-117, 2012. [2] C. R. Carter and L.M. Ellram. “Reverse logistics--a review of the literature and framework for future investigation,” Journal of business logistics, vol. 19, pp. 85-102. 1998 [3] V. Jayaraman, V.D.R. Guide Jr. and R. Srivastava. “A closedloop logistics model for use within a recoverable manufacturing environment,” Journal of Operational Research Society, vol. 50, no. 5, pp. 497–509. 1999. [4] D.S. Rogers, B. Melamed and R.S. Lembke. Going Backwards. Reverse Logistics Trends and Practice. Pittsburgh, PA: Council of Logistics Management. 1999. [5] S. Dowlatshahi. “Developing a theory of reverse logistics,” Interfaces, vol. 30, no. 3, pp. 143-155. 2000. [6] J. R. Stock and J. P. Mulki. “Product returns processing: an examination of practices of manufacturers, wholesalers/distributors, and retailers,” Journal of Business Logistics, vol. 30, no. 1, pp. 33-62. 2009. [7] V. D. R. Guide Jr. and L. N. Van Wassenhove. “OR FORUM-the evolution of closed-loop supply chain research,” Operations Research, vol. 57, no. 1, pp. 10-18. 2009. [8] D. Rogers. Glossary. Disponible en: http://www.rlec.org/glossary.html. 2007 [9] J. Demajorovic, M.K. Zuniga Huertas, J. Alves Boueres, A.G. da Silva and A. Sousa Sotano. “Logística reversa: como as empresas comunicam o descarte de baterias e celulares,” Revista de Administração de Empresas, vol. 52, no 2, pp. 165-178. 2012. [10]D. Adlmaier and M.A. Sellitto. “Embalagens retornáveis para transporte de bens manufaturados: um estudo de caso em logística reversa,” Revista Produção, vol. 17, no 2, pp. 395-406. 2007. [11]D.A. Lopes Silva, G.W. Santos Renó, G. Sevegnani, T.B. Sevegnani and O.M. Serra Truzzi. “Comparison of disposable and returnable packaging: a case study of reverse logistics in Brazil,” Journal of Cleaner Production, vol. 47, pp. 377-387. 2013. [12]J. Parada. Incorporación de la Logística Inversa en la Cadena de Suministros y su influencia en la estructura organizativa de las empresas. Editorial Universitat de Barcelona, 2010. [13]A. Diabat, T. Abdallah, A. Al-Refaie, D. Svetinovic and K. Govindan. “Strategic closed-loop facility location problem with carbon market trading.Engineering Management,” IEEE Transactions on, vol. 60, no. 2, pp. 398-408. 2013. [14]Z.H. Che, T.A. Chiang, and Y.C. Kuo. “Multi-echelon reverse supply chain network design with specified returns using particle swarm optimization,” International Journal of Innovative Computing, Information and Control, vol. 8, no. 10, pp. 6719-6731. 2012. [15]M. Hosseinzadeh and E. Roghanian. “An Optimization Model for Reverse Logistics Network under Stochastic Environment Using Genetic Algorithm,” International Journal of Business and Social Science, vol. 3, no. 12, pp. 1-17. 2012. [16]M. Gallo, T. Murino, y E. Romano. “The Simulation of Hybrid Logic in Reverse Logistics Network,” Selected Topics in System Science and Simulation Engineering, pp. 378-384. 2010. [17]V. Ravi, and R. Shankar. “Analysis of interactions among the barriers of reverse logistics,” Technological Forecasting and Social Change, vol. 72, no. 8, pp. 1011-1029. 2005. [18]A. Jayant, P. Gupta and S.K. Garg. “Design and Simulation of Reverse Logistics Network: A Case Study,” in Proceedings of the World Congress on Engineering. Julio 2011, vol. 1. [19]S. Elfvendahl, M. Mihale, M.A. Kishimba and H. Kylin. “Pesticide pollution remains severe after cleanup of a stockpile of obsolete pesticides at Vikuge, Tanzania,” AMBIO: A Journal of the Human Environment, vol. 33, no. 8, pp. 503-508. 2004. [20]S. D. Sivanesan, K. Krishnamurthi, S. D. Wachasunder and T. Chakrabarti. “Genotoxicity of pesticide waste contaminated soil and its leachate,” Biomedical and Environmental Sciences, vol. 17, no. 3, pp. 257-265. 2004. [21]A. Buczyńska, and I. Szadkowska-Stańczyk. “Identification of health hazards to rural population living near pesticide dump sites in Poland,” International Journal Occupational Medicine Environmental Health, vol. 18, no. 4, pp. 331-339. 2005. Entre Ciencia e Ingeniería [22]I. D. Haylamicheal and M.A. Dalvei. “Disposal of obsolete pesticides, the case of Ethiopia,” Environment international, vol. 35, no 3, pp. 667673. 2009. [23]W.J. Ladeira, A.E. Maehler and L.F. Machado do Nascimento. “Logística reversa de defensivos agrícolas: fatores que influenciamnaconsciência ambiental de agricultores gaúchos e mineiros,” Revista de Economia e Sociologia Rural, vol. 50, no 1, pp. 157-174. 2012. [24]E.D. Contreras, A.M. Fraile and J.D. Silva. “Diseño de un sistema de logística inversa para la recolección de envases y empaques vacíos de Plaguicidas,” Revista Ingeniería Industrial, vol. 12, no. 2, pp. 29-42. 2013. [25]R. K. Yin. Case Study Research: Design and Methods. 3rd Edition. Sage Publications. 2003. [26]Law A. M. y Kelton W. D. Simulation Modeling and Analysis. 3a Ed. Singapur. Mc Graw-Hill. 2000 [27]T. Kinnear and J. Taylor. Investigación de mercados. 5ta Ed. Bogotá D.C. Colombia. McGraw-Hill. 1998. [28]B.W. Niebel and A. Freivalds. Ingeniería industrial. Métodos, estándares y diseño del trabajo. Mexico. Mc Graw Hill interamericana. 2009. [29]M. Azarang and E. Dunna. Simulación y análisis de modelos estocásticos. Mexico D.F. McGraw Hill Interamerica Editores S.A, 1996. 282 p. [30]Resolución 693/2007. Colombia, Diario Oficial de la República, 24 de Abril de 2007, núm. 46.609. Julián David Silva Rodríguez nació en Tunja, Boyacá, Colombia, el 21 de Mayo de 1992. Se graduó como Ingeniero Industrial en la Universidad de Boyacá en el año 2013. Actualmente está adelantando sus estudios de Maestría en Ingeniería con énfasis en Industrial en la Universidad Pedagógica y Tecnológica de Colombia. Durante su estudio de pregrado, laboro como auxiliar de investigación en el programa de Ingeniería Industrial de la Universidad de Boyacá, asimismo profesionalmente ejerció como Joven Investigador en el mismo programa y en convenio con el Departamento Administrativo de Ciencia y Tecnología de Colombia (COLCIENCIAS). Ejerce actualmente como docente investigador del programa de Ingeniería Industrial de la Universidad de Boyacá. El profesor Silva pertenece al Grupo de Investigación Logística, Operaciones, Gestión y Calidad – LOGyCA de la Universidad de Boyacá, y al Grupo de Investigación Observatorio de la Universidad Pedagógica y Tecnológica de Colombia - UPTC. Eduin Dionisio Contreras Castañeda nació en Tunja, Boyacá, Colombia, el 26 de Agosto de 1982. Se graduó como Ingeniero Industrial en la Universidad de Boyacá en el año 2005. De igual forma se graduó como especialista en Gestión de Productividad y Calidad de la Universidad Autónoma de Colombia en el 2008 y como magister en Diseño y Gestión de Procesos de la Universidad de la Sabana en el 2012. Se ha desempeñado como docente de tiempo completo durante más de siete años investigando en las áreas de Gestión de la Calidad y Logística. También se ha desempeñado como docente a nivel de posgrado en el área de Ingeniería de Procesos. Actualmente ejerce como director del programa de Ingeniería Industrial de la Universidad de Boyacá. El profesor Contreras pertenece al Grupo de Investigación Logística, Operaciones, Gestión y Calidad – LOGyCA de la Universidad de Boyacá. 23 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 23 - 30 Educación matemática en Colombia, una perspectiva evolucionaria1 Mathematics education in Colombia, an evolutionary perspective M. E. Murcia y J. C. Henao Recibido Mayo 23 de 2015 – Aceptado Septiembre 23 de 2015 Resumen—El presente artículo de revisión, plantea de forma concreta algunos elementos epistemológicos de la formación del pensamiento matemático para el nivel de educación básica y media en Colombia, con los posibles errores metodológicos que se cometen en los procesos de transformación del lenguaje común hacia el lenguaje matemático estructurado; igualmente presenta algunas nuevas tendencias de formación que son punto de partida para la investigación que actualmente se desarrolla. Palabras clave—aprendizaje, didáctica, lógica formal, lógica natural, pensamiento matemático, robótica. Abstract — This review article presents some epistemological concretely training elements of mathematical thinking to the level of primary and secondary education in Colombia, within the possible methodological errors made in the transformation processes in common language towards the structured mathematical language; It also presents some new training trends as a starting point for a research that is currently being developed. Key words — learning, didactics, formal logic, natural logic, mathematical thinking, robotics. Introducción D e manera recurrente se han encontrado en el contexto escolar de la educación primaria, básica secundaria y media, dificultades en los procesos de enseñanza de las 1 Producto derivado del proyecto de investigación “didáctica para potenciar el pensamiento matemático mediante el uso de dispositivos lego”, perteneciente al grupo de investigación GEMA, avalado por la Facultad de Ciencias Básicas e Ingeniería, presentado en la convocatoria interna de 2014 en la Universidad Católica de Pereira. M. E. Murcia es Magíster en la Enseñanza de las Matemáticas, docente catedrático de la Universidad Católica de Pereira y docente nombrado del Magisterio Nacional, Pereira (Colombia); correo e.: euclides.murcia@ucp. edu.co. J. C. Henao es Magíster en la Administración de la Informática Educativa, docente catedrático de la Universidad Católica de Pereira y docente nombrado del Magisterio Nacional, Pereira (Colombia) ; correo e.: [email protected]. matemáticas que quedan directamente evidenciados en los procesos de aprendizaje de los niños y jóvenes cuya formación está enmarcada en estos niveles y que sin lugar a dudas permea hasta la educación terciaria, tal como lo expone en sus conclusiones [1] y que vienen igualmente sustentados por los resultados alcanzados por los estudiantes en las pruebas que aplica desde el año 2007 el Programa de Evaluación Internacional de los Estudiantes (PISA), analizados en sus conclusiones por [2] y que establece que los estudiantes colombianos tienen un nivel de rezago de aproximadamente dos años de escolaridad según la comparación realizada con estudiantes de su misma edad en otras latitudes. Sin embargo, esta problemática lejos está de ser consecuencia coyuntural de una situación reciente, de hecho el problema de la enseñanza y aprendizaje de casi cualquier ciencia –entre ellas la matemática–, se debe a la forma misma como se ha entendido históricamente la educación en Colombia, desde hace aproximadamente 50 años y específicamente a la forma como se hace la lectura en contexto de los roles del docente, el estudiante y el saber. En este sentido, [3] plantea que los modelos educativos latinoamericanos, entre ellos el colombiano se caracterizan por incorporar las prácticas educativas exitosas de otros países, simplemente traduciendo capítulos de libros o textualizando modelos pedagógicos sin desarrollar una construcción general propia, que se ajuste, de forma muy específica, a las condiciones propias del contexto. En la década de los ochenta, el Ministerio de Educación Nacional era el ente que regulaba el currículo escolar y determinaba los contenidos que debían enseñarse, sin embargo con la aparición de la Ley 115 de 1993 –Ley General de Educación–, se le confiere a cada institución una autonomía curricular para desarrollar su propio proyecto educativo y en consecuencia aparecen casi tantas propuestas Universidad Católica de Pereira 24 como instituciones, lo que llama el Dr. Vasco, “Un caos curricular” citado en [4], y aunque pueden distinguirse ciertas corrientes pedagógicas dominantes, cada una tenía un enfoque propio, lo cual se convirtió en factor adverso para la formación del estudiante en situación de movilidad, así se desdibujan en estas propuestas los fines mismos de la educación promulgados en la legislación vigente. Ahora, el problema de la formación de pensamiento matemático no es ajeno a esta problemática y demanda según [5] una profunda reflexión epistemológica; de igual forma en [6] se plantea que existe una gran brecha que separa los procesos de pensamiento no formal en los niños y jóvenes colombianos, y los procesos de pensamiento lógico formal y pensamiento matemático estructurado a los que se aspira a que estos chicos lleguen en la justa proporción, al nivel de desarrollo para su edad. En este sentido, el Estado colombiano viene implementando diferentes estrategias para dar solución a esta problemática y es así como desde los últimos cuatro gobiernos, por lo menos, las políticas de Estado en los planes nacionales de desarrollo, en el capítulo de educación de las referencias [7] y [8] buscan fortalecer, en primera instancia las competencias docentes, marcando un norte a través de los lineamientos curriculares establecidos en [9] que permitan unificar el “Caos curricular” en corrientes de pensamiento, y es así como aparecen precisamente los tipos de pensamiento matemático que agrupan los ámbitos de desarrollo de esta área. En una segunda línea, el Estado viene acompañando el sector educativo en programas complementarios liderados por diferentes entidades como Bienestar Familiar, Ministerio de Educación e inclusive desde la misma Presidencia de la República; programas como seguridad alimentaria, de Cero a Cinco, A que te Cojo Ratón, Supérate con el Saber, Supérate con el Deporte, entre otros, logrando con esta dinámica impactar positivamente el sector educativo. Aunando en esta situación, aunque este direccionamiento es provechoso para el sector, se debe precisar que los esfuerzos realizados por el Gobierno Nacional no son suficientes para alivianar la brecha que existe todavía en el sector educativo, con respecto a calidad propiamente dicha. II. Desarrollo de los procesos de enseñanza de la matematica en colombia desde las tres últimas décadas Con el fin de establecer una base conceptual sólida que explique mejor el contexto en el cual actualmente se desenvuelve los procesos curriculares de las matemáticas, resulta conveniente establecer algunos elementos conceptuales alrededor de la evolución de los enfoques que tuvo esta disciplina a lo largo de las cuatro últimas décadas en Colombia. Iniciando en la década de los ochenta, el Estado Colombiano hace un esfuerzo por modernizar la educación Entre Ciencia e Ingeniería a través de un modelo que en su momento fue llamado la “Renovación Curricular” y que de forma específica para las matemáticas buscaba superar las dificultades del modelo anterior que se centraba en las categorías abstractas y el rigor lógico matemático. Según lo planteado en los lineamientos curriculares del MEN en [9] la programación de los cursos de matemáticas se hacía por contenidos, lo que implicaba la colección más o menos hilada de una serie de temas en cada área que se consideraban importantes que el estudiante aprendiera, estas áreas estaban bien delimitadas y sus contenidos tenían unos tiempos específicos para su desarrollo; en este contexto, el pensamiento matemático favorecía organizar los diferentes aspectos de las matemáticas hacia una “Estructura Sistémica” que permitiera comprenderla como un todo estructurado, esto en reemplazo del “Enfoque estructural de los conjuntos” que indiscutiblemente demandaba una comprensión más rigurosa y menos flexible de los principios simbólicos. Con la Ley 115 de 1991, el Ministerio de Educación Nacional propone una serie de lineamientos curriculares en diversas áreas del conocimiento, que buscan orientar los procesos de aula hacia unos fines comunes y consagrados en la misma ley; el Estado con el fin de concretizar estos lineamientos, elabora los estándares básicos de competencias para cada una de las áreas, garantizando unos mínimos de calidad con los cuales se pueda tener algún tipo de control y regulación. Por su parte y debido a cambios en los enfoques de la matemática como objeto susceptible de ser enseñado y aprendido, se desprende, en igual medida, la necesidad de cambio de los principios y fines de la evaluación; la cual a su vez, paulatinamente va perdiendo su carácter sumativo, acumulativo y determinístico, pasando de ser el objetivo último del proceso educativo, a ser considerada como un medio y una herramienta que cuantifica y cualifica el nivel de desarrollo de un proceso o el nivel de alcance de una meta; en este contexto se replantea la evaluación orientada hacia los procesos más que hacia los resultados, encontrándose dos momentos importantes en el desarrollo histórico de su enfoque, el primero es la evaluación de logros y el segundo una evaluación por desempeños. Dentro de este marco, en la evaluación por logros, los procesos curriculares en el aula de clase se orientan hacia la consecución de un conjunto de habilidades cognitivas o cognoscitivas que dieran indicativos del dominio conceptual de la competencia; en la evaluación por desempeños se hace más énfasis en el camino que recorre el estudiante para alcanzar esa competencia, así lo plantea [10] y que se evidencian no por el logro alcanzado sino por los desempeños cuantificables que aparecen al momento de desarrollar la competencia. III. Referentes curriculares del pensamiento matemático actual Como puede inferirse de la sección anterior, la propuesta curricular que tiene el Estado colombiano es un modelo 25 evolucionario de varias décadas que replantea continuamente el rol que deben desempeñar tanto los docentes como los estudiantes y la posición que deben asumir las partes frente al conocimiento, lo que debe ser enseñando y qué de esto debe ser aprendido; en este contexto se establece una propuesta curricular que favorece no solo el desarrollo del pensamiento matemático en los estudiantes para comprenderla sino también favorecer la adquisición de nuevos tipos de herramientas de pensamiento que les permita explorar, comprender, predecir e impactar constructivamente su realidad, para que actúe competentemente en ella tal como se define en [11] y [12] de forma flexible e integrada, así la propuesta nacional se centra en organizar en tres aspectos fundamentales. No obstante, el primer aspecto son los procesos generales que enmarcan básicamente las operaciones mentales a desarrollar por parte de los estudiantes, el segundo son los conocimientos básicos que desarrollan procesos específicos del pensamiento matemático y los sistemas propios de las matemáticas y como tercer aspecto el contexto que se relaciona con el ambiente y la forma como se crea y recrea cultura; en esta misma dirección, uno de los problemas que plantea el mismo MEN es el riesgo de interpretación pasiva en la cual se pudieran ver cada una de estas dimensiones como aspectos independientes, siendo la verdadera intencionalidad la integración y transversalidad de estos elementos. A este respecto, en este escenario, se hace un fuerte énfasis en las Situaciones Problema como contexto referencial para acercarse al conocimiento matemático en la escuela, estas situaciones problema tal como lo expone [13], [14] y [15] son elementos impulsadores del aprendizaje interdisciplinar que capturan el interés del estudiante, al ver aplicado en contextos familiares, laborales, deportivos o lúdicos entre otros el conocimiento adquirido. el pensamiento espacial, el pensamiento métrico, el pensamiento aleatorio y el pensamiento variacional. En consecuencia, el pensamiento numérico busca desarrollar en el estudiante una comprensión general de los números y las operaciones asociadas a ellos para que piense flexiblemente y pueda hacer juicios matemáticos con la habilidad para comunicar, procesar e interpretar información numérica. En el pensamiento espacial y los sistemas geométricos el currículo se enfoca hacia el desarrollo de procesos cognitivos para construir, manipular e interpretar representaciones mentales de objetos en el plano o el espacio, las relaciones entre ellos, sus transformaciones y sus propiedades. Para el pensamiento métrico y los sistemas de medida se espera que el estudiante desarrolle sus habilidades para cuantificar diferentes parámetros en diversas situaciones, que los pueda comparar y establecer entre ellos relaciones, usando magnitudes y unidades. En el pensamiento aleatorio y los sistemas de datos la propuesta curricular del MEN se orienta a desarrollar la curiosidad y la indagación mediante los contenidos de la probabilidad y la estadística integrando la construcción de modelos analíticos que expliquen situaciones específicas de la cotidianidad del estudiante; en este escenario según [16] se favorecen los procesos de pensamiento inductivo, inferencial y pensamiento divergente. Finalmente en el pensamiento variacional y los sistemas algebraicos analíticos se espera superar la enseñanza de contenidos algebraicos segregados, pues demanda una articulación intencionada de todos los contenidos y pensamientos a fin de alcanzar un dominio conceptual estructurado. En algunas ocasiones, debido a la atomización errada de estos tipos de pensamiento en la escuela, donde cada eje se trabaja de forma autónoma, viene adquiriendo cada vez más fuerza dentro de la propuesta curricular del Estado, la unión de estos pensamientos en tres categorías importantes que buscan precisamente integrar estos conocimientos por parte del docente y los saberes por parte del estudiante • • • Pensamiento numérico variacional Pensamiento métrico geométrico Pensamiento aleatorio. Actualmente el espíritu de estas reformas curriculares buscan desarrollar en el estudiante algún nivel de autonomía, con capacidad de pensar divergentemente y así poder resolver problemas reales a través de la matemática, sin embargo los indicadores que se muestran en la sección siguiente, sugieren que no se han obtenido los resultados esperados. Fig. 1. Propuesta curricular del MEN para el área de matemáticas. Adaptado de los Lineamientos curriculares para el área de matemáticas Con referencia a los conocimientos básicos en matemáticas, la propuesta curricular del MEN los categoriza inicialmente en cinco estadios, el pensamiento numérico, IV. El problema de la enseñanza y aprendizaje de las matemáticas en Colombia En términos generales es un hecho que la calidad de la educación en Colombia no responde a los estándares esperados tanto a nivel nacional como a nivel internacional, tal como lo sustenta [17]; referentes nacionales como los Universidad Católica de Pereira 26 proporcionados por el ICFES o referentes internacionales como las pruebas realizadas por PISA, SERCE y TIMSS comparativamente indican bajos resultados, por lo menos en tres áreas del conocimiento –Lectura, Ciencias y Matemáticas– tal como lo expone [3] con base en el informe presentado en [18] y de cual se extraen los datos que se muestran en la tabla 1, dejando a Colombia en el puesto 62 dentro de un ranking de 65 países participantes, lo que se ha convertido en tema álgido de debate en la nación. Ante esta situación, el estado colombiano viene impulsando nuevas propuestas de evaluación y de seguimiento anuales a los estudiantes, con la intención de identificar de forma específica las causas, con sus posibles alternativas de solución, para mejorar la calidad y que se vea reflejado en estos indicadores; para ello [19] y [20] plantean, que para disminuir esas grandes brechas y desigualdades en el sistema educativo colombiano es necesario compensar a aquellos grupos sociales que se encuentran en desfavorabilidad, igualmente deben crearse políticas de estímulo para la capacitación y actualización permanente de los docentes. tabla i.. resultados de las pruebas pisa aplicadas en el 2012 Así mismo, otro indicador de la calidad educativa que viene adquiriendo validez, reconocimiento y aceptación ante la sociedad colombiana, son los resultados en las pruebas saber para los grados tercero, quinto, noveno y once, las cuales evalúan los conocimientos y habilidades de los estudiantes colombianos en las áreas de matemáticas, lenguaje, ciencias naturales, ciencias sociales y competencias ciudadanas de tercero a noveno y para grado once pruebas equivalentes agregando el idioma extranjero. Sobre las bases de los tópicos expuestos, los resultados de estas pruebas son categorizados por tipos de colegio, niveles socioeconómicos, edades y género entre otras variables. Entre Ciencia e Ingeniería Fig. 2. Resultados de las pruebas SABER, grado tercero para los años 2012, 2013 y 2014. Fuente. www.icfes.gov.co Fig. 3. Resultados de las pruebas SABER, grados quinto y noveno para los años 2009, 2012, 2013 y 2014. Fuente. www.icfes.gov.co En las figuras anteriores se ilustran los porcentajes de desempeño en el área de matemáticas para todos los estudiantes en Colombia que presentaron las pruebas SABER, puede apreciarse que no existe un cambio significativo en los resultados de las pruebas censales desde el año 2009 hasta el año 2014 –de hecho los índices muestran una desmejora en los porcentajes de desempeño de los estudiantes– lo cual puede llevar a inferir el poco nivel de impacto en las políticas nacionales, regionales y locales para el mejoramiento de calidad, aunque la responsabilidad no debe recaer solo en el Estado, esta debe ser compartida por la comunidad académica, siendo esta docentes, estudiantes y padres de familia. 27 V. Alternativas para el problema de la formación matemática en la Escuela No existe un consenso acerca de las causas específicas que originan las dificultades en los procesos de enseñanza y aprendizaje de las matemáticas tanto en maestros como en los estudiantes, sin embargo sí es posible encontrar tendencias, tal como lo ilustra [21], que consultando a varios expertos en educación, proporciona algunos elementos que sirven como punto de reflexión para el debate; entre estos están por ejemplo una equivocada práctica docente por factores emocionales, basados en modelos pedagógicos inapropiados, pero también son dificultades cognitivas propias de los estudiantes, concebidas por obstáculos no superados en procesos escolares anteriores o por errores que tienen su origen en la ausencia de significados que los expone con mayor profundidad [22], igualmente, el problema radica en que los contenidos y las competencias que se quieren desarrollar se vuelven independientes, sin el concurso transversal de otros saberes, los estudiantes adicionalmente complican la situación al tener bajos niveles de lectura y desde luego, comprensión de lectura, que aunado a la cultura del facilismo y posibles errores en los procedimientos para la promoción escolar y la ausencia de acompañamiento en casa, necesariamente llevan al el fracaso escolar. Esta situación igualmente se ve reflejada en la educación superior, tal como lo expone [23] donde bajos índices de competencias básicas matemáticas y competencias básicas lectoras impactan muy significativamente los índices de aprobación y reprobación de asignaturas en ciencias básicas lo cual influye de forma determinante en la deserción de los estudiantes universitarios tal como lo expone [24]. Dada la necesidad, no sólo en Colombia, sino también en todo el mundo, de mejorar y modernizar los sistemas, se han propuesto, entre otros, nuevos modelos pedagógicos como [25], estrategias didácticas como [26], estrategias metodológicas como la que se expone en [27] pero se enmarcan, tal como lo expone [28] y [29] en las tecnologías de la información y la comunicación; experiencias tales como [30], [31] y [32], sugieren que el uso de estos recursos capta el interés de los estudiantes, contextualiza en su propio lenguaje y facilita el aprendizaje, al tener en cuenta los ritmos propios de cada individuo, por otro lado, media la universalización del conocimiento con la creación de redes académicas donde cada participante cumple un rol en la generación de nuevos saberes para él mismo y su comunidad según lo propuesto en publicaciones como [33] y [34]. Por lo tanto, al ubicar al estudiante en situaciones reales donde deba usar sus saberes para encontrar respuesta a una problemática salida de los contextos académicos pero aterrizados en la cotidianidad, según [35], se facilita el aprendizaje ya que interactúa con estructuras mentales previas permitiendo lo que Ausubel denomina asimilación cognitiva. Sin duda, estos cambios en los paradigmas sobre educación, han llevado a replantear igualmente los métodos de enseñanza y en el escenario mundial destacan dos propuestas generales que han hecho carrera en las comunidades educativas en casi todos los niveles de formación, estos dos métodos son el e–learning y el b-learning. Como seguimiento a esta actividad, cabe precisar que el e-learning es una metodología de enseñanza y aprendizaje que usa el internet como canal para administrar y gestionar la información a través de enlaces hipertextuales dentro de redes académicas de conocimiento tal como lo expone [36] y [37]; pero dos de los inconvenientes más relevantes de esta propuesta y que la han llevado a su replanteamiento en [38] y [39], son la desnaturalización de las relaciones docente-estudiante, puesto que todo se hace de forma virtual a través de la Internet y la necesidad que el estudiante requiera, de antemano, un nivel de maduración cognitiva y de compromiso con su formación, pues gran parte –sino la totalidad– de la responsabilidad del cumplimiento de las tareas asignadas recae sobre él, ya que es inexistente la presión social de grupo o presión docente por cumplir con los deberes asignados. En respuesta a estos dos inconvenientes, entre otros que presenta el e–learning, aparece el b-learning o aprendizaje de base tecnológica semipresencial, explicado con más detalle en [40] y [41], el cual combina sistémicamente, tanto la virtualidad, la presencialidad y los recursos tecnológicos disponibles. De la educación virtual retoma el uso de los recursos hipertextuales e hipermediales y de la educación presencial la personificación y naturalización del proceso enseñanza– aprendizaje, trabajando con los centros de atención y motivación de los estudiantes. Estas estrategias metodológicas tienen diversos elementos en común, siendo uno de los más significativos la facilidad para crear las mismas redes académicas de conocimiento conformadas por pares disciplinares y tutores que se mencionan en este documento; de hecho [42] explica su fortaleza en el sentido que empodera a cada participante, tanto de su propio proceso formativo, como de los procesos formativos de los demás participantes dentro de su comunidad, adicionalmente muestra el conocimiento como un proceso dinámico y de continua construcción que desde el enfoque epistemológico crea y recrea la ciencia. Estas mediaciones vienen siendo empleadas y utilizadas con excelentes resultados, según se puede concluir con base en la bibliografía anteriormente citada, lo que se convierte, para la presente investigación, en un punto de referencia y camino recorrido para reorientar nuevas búsquedas. VI. La Propuesta de investigación Planteado el problema de la enseñanza y aprendizaje de las matemáticas en la escuela, su evolución y estado actual, y con los nuevos enfoques pedagógicos, metodológicos y didácticos, y partiendo de los logros alcanzados cuando se usan las Tecnologías de la Información y la Comunicación [43] se pretende indagar sobre las mejores formas, a través de las cuales, se pueden articular los sistemas hipermediales Universidad Católica de Pereira 28 y especialmente la robótica, aprovechando como referencia los avances hechos en [44] y [45] al currículo de la escuela colombiana, a fin de poder lograr la transformación del pensamiento lógico natural hacia el pensamiento lógico formal necesario para construir en los niños, niñas y jóvenes, un pensamiento matemático correctamente estructurado. La propuesta de investigación está sustentada en tres elementos importantes mutuamente relacionados: un componente tecnológico, un componente disciplinar y un componente metodológico, tal como se ilustra en la Fig. 4. Fig. 4. Representación de la propuesta curricular en la investigación. No es posible jerarquizar estos componentes dentro de una propuesta integrada, como se plantea en la presente investigación, cada uno cumple una función específica aunque relacionada sustantivamente con las otras dos y soporta a su vez toda la propuesta en sí misma pero referenciándose a las otras dos. Por su parte, el componente disciplinar de la propuesta de investigación hace una reflexión sobre las competencias – en el contexto de las matemáticas– que se quieren desarrollar en los estudiantes; estas competencias son leídas desde los requerimientos de orden nacional –los lineamientos curriculares para matemáticas– y adicionalmente asumen los contenidos sobre los cuales se construye este pensamiento. El componente tecnológico por su parte abarca el estudio de la infraestructura en hardware y software requerida para el desarrollo de la propuesta, apuntando a una transposición didáctica efectiva, tal como se expone en [46] y [47], a la adquisición de saberes dentro del contexto del constructivismo Vygotskiano, explicado en [48], [49] [50] y [51] y el aprendizaje significativo de [52] y [53]. Finalmente el componente metodológico indaga sobre las formas eficientes, en las cuales se debe articular el componente disciplinar con el componente tecnológico, para que el estudiante transforme ese conocimiento en saber y comprenda que ese es el fin último del procesos educativo tal como lo propone [54]; esto desde luego demanda una comprensión del contexto y de las necesidades de los participantes, pero también de sus potencialidades y capacidades. Entre Ciencia e Ingeniería VII. Conclusiones En síntesis, el problema de la enseñanza y aprendizaje de una ciencia en los diferentes niveles de la educación de un país como Colombia, es de naturaleza epistemológico, tanto en su componente disciplinar como en su componente pedagógico; la comprensión histórica de la evolución de los sistemas educativos al cual pertenecieron los maestros y en los cuales fueron formados tanto a nivel de pregrado como posgrado, dan una aproximación a las posibles causas por las cuales los nuevos modelos no han permeado intensamente la educación, a pesar de tener amplias y también profundas investigaciones en estos campos, en este sentido es importante reconocer los ingentes esfuerzos de las comunidades académicas nacionales e internacionales por replantear el paradigma de la educación. Por otra parte, los indicadores de evaluación tanto nacional como internacional, muestran bajos niveles de desempeño de los estudiantes de educación básica primaria, básica secundaria y media en áreas como matemática, ciencias, lenguaje entre otras, originados por diversas causas y aunque es importante comprenderlas para así plantear soluciones realistas, el objeto central de discusión de las comunidades académicas y del Estado, debe ser cómo mejorar y cómo se deben aplicar políticas unificadas que beneficien a toda la población de chicos y chicas en edad escolar. En esta dirección, si existe algo cambiante en la sociedad es su educación, la cual obligatoriamente debe responder a las necesidades de una nación; esta educación debe reflejar el contexto socio–cultural y económico de sus individuos, pero también demanda una lectura de los nuevos recursos tecnológicos y la forma en la cual estos deben integrarse a la comunidad desde una perspectiva ética en las relaciones humanas y su posición frente al conocimiento, la sostenibilidad en el tiempo, la sustentabilidad con el medio ambiente. Este ejercicio lejos está de ser fácil, precisa del concurso de diversos estamentos. Agradecimientos Los autores reconocen las contribuciones de J.A. Barrera, J.L. Arias, en la construcción, revisión y corrección del presente artículo, igualmente a la Dirección de Investigaciones e Innovación de la UCP y a la Universidad Católica de Pereira con su Facultad de Ciencias Básicas e Ingeniería. Referencias [1] L. H. Jaime, “La evaluación en la educación superior”. Principia Iuris, vol. 11, No. 11, 2014. [2] M. Delgado-Barrera, “La educación básica y media en Colombia: Retos en equidad y calidad. Informe final”. Bogotá: Fedesarrollo, 2014. [3] S. González, “Colombia, el último lugar en los nuevos resultados en las pruebas PISA”. El Tiempo, Bogotá 09 de Abril 2014. 29 [4] M. Molano, “Carlos Eduardo Vasco Uribe. Trayectoria biográfica de un intelectual colombiano: una mirada a las reformas curriculares en el país”. Revista Colombiana de Educación, vol. 6, 2011, pág 161– 198. [5] G. Santi & A. Baccaglini-Frank, “Forms of generalization in students experiencing mathematical learning difficulties”, PDA, vol. 9, no 3, 2015 [6] K. Fernández, I. Gutiérrez, M. Gómez, L. Jaramillo, & M. Orozco, “El pensamiento matemático informal de niños en edad preescolar Creencias y prácticas de docentes de Barranquilla (Colombia)”. Zona próxima, no 5. 2011. [7] Ministerio de Educación Nacional. (01 de Mayo de 2008). “Plan nacional colombiano de tecnologías de la información, la comunicación y la educación”. Recuperado el 12 de Marzo de 2013, de Eduteka: http://www.eduteka.org/pdfdir/ColombiaPlanNacionalTIC. pdf [8] Ministerio de Educación Nacional. (2006). “Plan nacional decenal de educación 2006-2016”. Recuperado el 01 de octubre de 2013, de Plan Decenal de Educación: http://www.plandecenal.edu.co/html/1726/articles-166057_ investigacion.pdf [9] Ministerio de Educación Nacional, “Lineamientos curriculares en matemáticas”. Bogotá: Colombia, 1998 [10] J. A. Vera-Noriega, L.E. Torres-Moran & E. E. Martínez- García, “Evaluación de competencias básicas en tic en docentes de educación superior en México”. Pixel-Bit: Revista de medios y educación, vol 44, 2014, pp. 143-155. [11] V. R. Jacobs, L. L. Lamb, & R.A. Philipp, “Professional noticing of children’s mathematical thinking”. Journal for Research in Mathematics Education, vol. 41, No. 2, 2010, pp. 169-202. [12] J. J. Henao-García & O.E. Tamayo-Alzate, “Enseñanza y Aprendizaje del concepto naturaleza de la materia mediante la resolución de problemas”. Unipluriversidad, vol 14, no 3, pp. 25-45. [13] K. Brown, “Employing Mathematical Modelling to Respond to Indigenous Students’ Needs for Contextualised Mathematics Experiences”. In Proceedings of the 31st Annual Conference of the Mathematics Education Research Group of Australasia. Navigating Currents. vol 1, pp. 93-98. Brisbane, 2008. Australia: Mathematics Education Research Group of Australasia Inc. [14] E.C. Nusbaum & P.J Silvia, “Are intelligence and creativity really so different?: Fluid intelligence, executive processes, and strategy use in divergent thinking”. Intelligence, vol 39, no 1, 2011, pp.36-45. [15] F. Paas & S. Kalyuga, “Cognitive measurements to design effective learning environments.” In C. P. Constantinou, D. Demetriou, A. Evagorou, M. Evagorou, A. Kofteros, M. Michael, et al. (Ed.), 11 th Biennial conference of the european association for research on learning and instruction (EARLI), 2004, Nicosia, Chipre: Universidad de Chipre. pp. 12 [16] H. Leary, A. Walker, B. Shelton & H. Fitt, “Exploring the Relationships between Tutor Background, Tutor Training, and Student Learning: A Problem-based Learning Meta-Analysis”. Interdisciplinary Journal of Problem-based Learning, 2013, pp. 40-66. [17] J. Orjuela, “Determinantes individuales de desempeño en las Pruebas de Estado para la educación media en Colombia. In ICFES, Estudios sobre la calidad de la educación en Colombia” Bogotá: Ministerio de Educación Nacional, 2012, pp. 164-176 [18] ICFES. (2013). Colombia en PISA 2012. Informe Nacional de Resultados. Resumen ejecutivo. Bogotá: ICFES. [19] L. F. Gamboa, “Análisis de la igualdad de oportunidades en educación media, en una perspectiva internacional. El Caso de Colombia”. En ICFES, Estudios sobre la calidad de la educación en Colombia,. Bogotá: Ministerio de Educación Nacional, 2012, pp. 1-42. [20] M. T. Celis, O. A. Jimenes, & J. F. Jaramillo, “¿Cuál es la brecha de calidad educativa en Colombia en la educación media y superior”, en ICFES, Estudios sobre la calidad de la educación en Colombia, Bogotá: Ministerio de Educación Nacional. 2012 pp. 67-89 [21] A. Linares, “¿Por qué somos tan malos en matemáticas?” El Tiempo, 28 de septiembre de 2013. [22] M. M. Socas, “Dificultades y errores en el aprendizaje de las matemáticas. Análisis desde el enfoque lógico semiótico”. Investigación en educación matemática XI, 2007, pp. 19-52. [23] F. Barrera, D. Maldonado & C. Rodríguez, “Calidad de la educación [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] básica y media en Colombia: Diagnóstico y propuestas”. Bogotá: Universidad del Rosario. 2012 G. J. Paramo & C.A. Maya, “Deserción estudiantil universitaria. Conceptualización”. Revista Universidad EAFIT, vol 35 no 114, 2012, pp. 65-78. Harvard University. Project Zero. Retrieved Abril 08, 2014, from Graduate School of Education: http://www.pz.harvard.edu/. 2014. F. Ligozat, “The determinants of the joint action in didactics: The text-action relationship in teaching practice”. In B. Hudson, & M. Meyer, Beyong Fragmentation: Didactics, Learning and Teaching in Europe, Ginebra: Opladen & Farmington Hill, 2011, pp. 157-176 Sociedad y Tecnología Cul, “Plataformas educativas de software libre”. Retrieved junio 01, 2014, from TICs en la educación: http://sociedadytecnologiacul2.wordpress .com/tics-educacion/ plataformas-educativas/plataforma s-educativas-de-software-libre/, 01 de enerto de 2008 J. S. Ibañes, “Innovación docente y uso de las TIC en la enseñanza universitaria. RUSC”. Universities and Knowledge Society Journal, vol 1, no. 1, 2004, pp. 1-16 C. Rosales, “Contextos de la innovación educativa”. Innovación Educativa, vol. 1, no 22, 2012, pp. 9-12. J. C Henao-López, & J. A. Barrera-Moncada, “PHYSILAB. Estrategia Metodológica para la Enseñanza de la Física”. Reunión Nacional de ACOFI Acciones y cambios en las facultades de ingeniería, pp. 7785, Santa Marta. 2011 J. C Henao-López, & J. A. Barrera-Moncada, PHYSILAB. Conceptos y ejercicios. Pereira, Colombia: Colección Maestros. Universidad Católica de Pereira. N. Coparri, “Relación entre las nuevas tecnologías y la preferencia en la comunicación en estudiantes”. Eureka, vol 8, no 2, 2011, pp. 231240. M. B. Yeary, Y. Tian-You, R. D. Palmer, H. Monroy, “Working together for better student learning: a multi-university, multi-federal partner program for asynchronous learning module development for radar-based remote sensing systems”. IEEE Transactions on Education, 2010, pp. 505-515. M.S. Ibarra, G. Rodríguez, “El trabajo colaborativo en las aulas universitaria. Reflexiones desde la autoevaluación.”, Revista de Educación, 2007, pp. 355-375, J.J Jiménez, G. Lagos & F. Jareño, “El aprendizaje basado en problemas como instrumento potenciador de las competencias transversales”. E-pública. Revista electrónica sobre la enseñanza de la economía pública, vol 13, 2013, pp. 44-58. J. Cabrero, “Bases pedagógicas del e–learning”. Revista de universidad y sociedad del conocimiento, vol 3, no 1, 2006 J. L. Moore, C. Dickson-Deane & K. Galyen, “e-Learning, online learning, and distance learning environments: Are they the same?”. The Internet and Higher Education, vol 14, no 2, 2013, pp. 129-135. M. Rosenberg, E-learning: Estrategias para transmitir conocimiento en la era digital. Bogotá: McGraw-Hill Interamericana. 2002 M. Paechter, B. Maier & D. Macher, “Students’ expectations of and experiences in e-learning: Their relation to learning achievements and course satisfaction”. Computers & Education, vol 54, no. 1, 2010, pp. 222-229. I. de la Torre, F. J. Diaz, M. Anton, M. Martinez, D. Boto, D. Gonzalez, D., et al., “Blended learning (b-learning) in telecommunications engineering - A study case”. (IEEE, Ed.) Promotion and Innovation with New Technologies in Engineering Education (FINTDI), May 6 de 2011, pp. 1–4. E. Bañados, “A blended-learning pedagogical model for teaching and learning EFL successfully through an online interactive multimedia environment”.Calico Journal, vol 23, no 3, 2013, pp. 533-550. M. Guitert, & M. Pérez, “La colaboración en la red. Hacia una definición de aprendizaje colaborativo en entornos virtuales.”, Teoría de la educación. Educación y cultura en la sociedad de la información, vol. 14, no 1, 2013, pp. 10-31. J. Salinas, “Innovación docente y uso de las TIC en la. Revista Universidad y sociedad del conocimiento”, vol 1 no 1, 2004, pp. 1-11. E. González-Guerrero, J.J Páez-Rodríguez & F. J. Roldan, “Robots cooperativos, Quemes para la educación”. Vínculos, vol 10, no 2, 2013, pp. 47-62. S. A. Zabala-Vargas, J.A. Pérez-López, & H. F. Rodríguez-Hernández, Universidad Católica de Pereira 30 [46] [47] [48] [49] [50] [51] [52] [53] [54] “Estrategia para el desarrollo de aprendizajes en ingeniería basado en robótica educativa y competitiva: caso Universitaria de Investigación y Desarrollo, udi”. Ingeniería Solidaria, vol 6, no 16, 2013, pp. 153159, C. Bergsten, E. Jablonka & A. Klisinska, “A remark on didactic transposition theory”. In Mathematics and mathematics education: Cultural and social dimensions: Proceedings of MADIF7, The Seventh Mathematics Education Research Seminar, pp. 1-11, Estocolmo: Linköping: Svensk förening för matematikdidaktisk forskning (SMDF), 2013, pp. 25-26. M. Artigue, “Ingeniería didáctica”. En M. Artigue, D. Regine, L. Moreno, & P. Gómez (Ed.), Ingeniería didáctica en la educación matemática, Bogotá: Grupo Editorial Iberoamericana, 1995, pp. 3360 L. S. Vygotsky, Pensamiento y Lenguaje. Madrid: Paidós Ibérica, 2010. M. Carretero, “¿Qué es el constructivismo?” en Constructivismo y Educación, México: Progreso, 2005. pp. 24-25 C. Coll, “Constructivismo y educación escolar: ni hablamos siempre de lo mismo ni lo hacemos siempre desde la misma perspectiva epistemológica”. Anuario de Psicología, vol 69, no 1, 1996, pp. 153178, C. Coll, “Constructivismo y educación: La concepción constructivista del aprendizaje”. In C. Coll, J. Palacios, & A. Marchesi, Desarrollo psicológico en educación 2. Psicología de la educación escolar, pp. 157-186, Madrid: Alianza Editorial. 2001 D. P. Ausubel. The psychology of meaningful verbal learning. New York: Grune & Stration, 1963 D. P. Ausubel, J. D. Novak & H Hanesian. Psicología educativa. Un punto de vista cognoscitivo. Mexico: Trillas. 1983 D. Perkins, “Qué es la comprensión”. En M. Stone (Ed.), Enseñanza para comprensión. Vinculación entre la práctica y la investigación, Buenos Aires: Paidós, 1993 pp. 4-27. Euclides Murcia Londoño Nació en Santa fe de Bogotá (D.C), Colombia el 1 de Noviembre de 1975 y estudió su pregrado de Licenciatura en Matemáticas y en la Universidad Tecnológica de Pereira, Ha Ejercido Profesionalmente como docente para la Secretaria de Educación de Pereira, y para la Universidad Católica de Pereira, encuentra vinculado laboralmente y pertenece al grupo de investigación GEMA. Entre sus camposde interés está la didáctica, la estadística, las TIC y la metodología de Investigación Computación en la Universidad del Quindio, y una maestría. Juan Carlos Henao López Nació en Pereira, Colombia el 14 de enero de 1977 y estudió su pregrado en ingeniería en la Universidad Tecnológica de Pereira y una maestría en educación con la Universidad de Santander. Ejerció profesionalmente como docente para la Secretaria de Educación de Pereira, la Universidad de Caldas y la Universidad Católica de Pereira donde actualmente se encuentra vinculado laboralmente y pertenece al grupo de investigación GEMA. Entre sus campos de interés está la didáctica, la robótica, las TIC. Entre Ciencia e Ingeniería 31 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 31 - 38 Estudio de la viabilidad del Lactobacillus casei en jugo de naranja (Citrus sinensis) adicionado con vitamina C, Calcio y oligofructosa1 Feasibility study of Lactobacillus casei in orange juice (Citrus sinensis) supplemented with vitamin C, calcium and oligofructose M. C. Londoño, J. C. Lucas y V. D. Quintero Recibido Marzo 27 de 2015 – Aceptado Septiembre 23 de 2015 Resumen — Se utilizó la Naranja Valencia para producir un jugo enriquecido con bacterias probióticas (Lactobacilos casei). Se evaluó la concentración óptima de estabilizante realizando un berrido con tres tipos de gomas (Xantan, CMC, y pectina), evaluado mediante un arreglo factorial 33. Posteriormente se adicionó el microorganismo a tres concentraciones diferentes (0,4 -0,5 y 0,6 Mc – Farland) y los compuestos fisiológicamente activos (Calcio y vitamina C) en un 20% del valor diario recomendado según la resolución 333 de 2011 del ministerio de protección social. Los resultados mostraron que se debe adicionar Pectina 0.02 %, CMC 0.015 % y Xantan 0.014 %. El análisis de la concentración de microorganismos durante el tiempo de almacenamiento muestra que la concentración inicial aumentó hasta llegar a 7.21* 109 UFC, y el pH permaneció constante desde el día 15 hasta el 20 en 3.8. Palabras clave— naranja, jugo, bacterias probióticas. Abstract— Valencia Orange was used to produce a juice enriched with probiotic bacteria (Lactobacillus casei). The optimal concentration of stabilizer was evaluated by 1 Producto derivado del proyecto de investigación “Estudio de la viabilidad de Lactobacilus casei en jugo de naranja, fortificados con calcio, vitamina C y adicionado con oligofructosa.”. Presentado por el Grupo de Investigación Agroindustria de frutas tropicales, avalado por la Facultad de ciencias básicas y facultad de ciencias agroindustriales de la Universidad del Quindío. J. C. Lucas y V. D. Quintero, son docentes del Programa de Ingeniería de Alimentos, Facultad de Ciencias Agroindustriales de la universidad del Quindío, Armenia, Quindío (Colombia); email: [email protected] y [email protected] M. C. Londoño, es docente del Programa de Química, Facultad de ciencias básicas de la universidad del Quindío, Armenia, Quindío (Colombia); email: [email protected] performing a screening with three types of gums (xanthan, CMC, and pectin), evaluated using a factorial arrangement 33. Subsequently the microorganism at three different concentrations (0.4 -0.5 and 0.6 was added 6 Mc - Farland) and physiologically active compounds (calcium and vitamin C) 20% of the recommended daily value according to the resolution 333 of 2011 the ministry of social protection. The results showed that 0.02% pectin, CMC and Xanthan 0.015% 0.014% should be added. The analysis of the concentration of microorganisms during storage time shows that the initial concentration increased up to 7.21 * 109 CFU, and the pH remained constant from day 15 to 20 in 3.8. Key words—juice, orange, probiotic bacterias. L I. Introducción os alimentos funcionales se definen como aquellos que además de suministrar nutrientes, ofrecen beneficios potenciales para la salud que puede mejorar el bienestar de los individuos. Ellos afectan una o más funciones diana del organismo, más allá de su efectos nutricionales, ya sea para mejorar la salud y/o reducir el riesgo de la enfermedad [1], y deben, por varias definiciones, ser consumidos como parte de un patrón normal de alimentos y no como una píldora, una cápsula, o alguna forma de suplemento dietético. [2] Los probióticos proporcionan una serie de beneficios para la salud, principalmente a través del mantenimiento de la microbiota intestinal normal, la protección contra patógenos gastrointestinales, mejora del sistema inmune, reducción del nivel de colesterol sérico y la presión sanguínea, la actividad Universidad Católica de Pereira 32 anti-cancerígena, la mejora de nutrientes y la mejora el valor nutritivo de los alimentos. Las aplicaciones terapéuticas de los probióticos incluyen la prevención de la diarrea infantil, enfermedades urogenitales, osteoporosis, alergia a los alimentos y enfermedades atópicas; la reducción de la diarrea provocada por anticuerpos; alivio de la constipación y la hipercolesterolemia; control de las enfermedades inflamatorias del intestino; y la protección contra el cáncer de colon y la vejiga. [3], [4] y [5] ligero cambio de color, pero no un color extraño debido a la alteración o elaboración defectuosa según el Instituto Colombiano de Normas Técnicas en su Norma 695. El éxito significativo se ha logrado durante las últimas décadas en el desarrollo de productos que contienen bacterias probióticas, tales como leches fermentadas, helados, varios tipos de queso, comida para bebés, leche en polvo, postres lácteos congelados, bebidas a base de suero, crema agria, suero de mantequilla, la leche líquida normal y jugos de fruta con sabores semejantes a las materias primas originales. [6] La obtención de jugos de frutas con probióticos cobija a todos aquellos consumidores que son intolerantes de alguna forma a los productos lácteos, pudiéndose aprovechar de alguna manera este tipo de alimentos básicos como alimentos funcionales [7]. Los jugos de frutas se han considerado adecuados para la adición de cultivos probióticos porque ya contienen nutrientes beneficiosos, los cuales aportan perfiles de sabor agradables para consumidores de todas las edades [8], [9] y [1], además de hacer parte de la dieta de una gran proporción de la población colombiana, permitiendo que este tipo de alimento funcional sea accesible en cualquier nicho de mercado. II. Materiales y métodos La producción de jugos y pulpas naturales funcionales es limitada debido al bajo conocimiento que se tiene del comportamiento de las matrices de los constituyentes de estas bebidas en el momento de procesarlas y conservarlas. Además la mayoría de los productos del mercado proporcionan al consumidor los componentes nutricionales básicos de cada fruto sin aportar otros compuestos que sean bioactivos en el ser humano [6]. Dentro de la normatividad que rige este tipo de alimentos existen diversos tipos: la Norma General del Codex para Zumos (Jugos) y Néctares de Frutas (Codex Stan 247-2005) y la Resolución del Ministerio de Salud No 7992 del 21 de Julio de 1991, por la cual se reglamentan los diversos parámetros relacionados con la elaboración, conservación y comercialización de jugos, concentrados, néctares, pulpas azucaradas y refrescos de frutas. Otra definición sobre los productos líquidos de las frutas la propone el Instituto Colombiano de Normas Técnicas en su Norma 695. Para la elaboración del jugo de naranja, éste debe tener una acidez (expresada como ácido cítrico anhidro) de 0.5% m/m Mínimo, 9°Brix (a 20°C), un porcentaje de agua de 70 a 95%, debe estar libre de materias extrañas, admitiéndose una separación en fases y la presencia mínima de trozos, partículas oscuras propias de la fruta utilizada, libre de sabores extraños. El color y olor semejante al de la fruta de la cual se ha extraído. El producto puede presentar un Entre Ciencia e Ingeniería El objetivo principal de este trabajo fue el de estabilizar el jugo de naranja obtenido, adicionarle el microorganismo (L. casei) los compuestos fisiológicamente activos (Calcio, Vitamina C y oligofructosa) y estudiarlo fisicoquímica y sensorialmente. A. Obtención del Jugo Las naranjas fueron adquiridas en la central de acopio de alimentos de la ciudad de Armenia, Quindío, Colombia, en el mismo estado de maduración. Posteriormente fueron llevadas al Laboratorio de Diseño de Nuevos Productos de la Universidad del Quindío, localizado en la misma ciudad. Las frutas se lavaron con hipoclorito de sodio y se escaldaron a 75ºC por 1 minuto. El jugo de naranja se extrajo empleando un exprimidor de marca Oster 3190 Rotación Bidireccional, tomando como referencia la NTC 5468, posteriormente se homogeneizó en ultraturrax a 2500 rpm durante 90 segundos a temperatura ambiente y finalmente se filtró sobre una malla con tamaño de poro de 100 µm. [10] B. Caracterización inicial del jugo El jugo de naranja obtenido se caracterizó fisicoquímicamente, determinando el color mediante un espectofotómetro Minolta. A partir de los espectros de reflexión de las muestras se determinaron las coordenadas del CIE-L*a*b*. A partir de los espectros de reflactancia se cuantificó el parámetro ΔE para determinar el cambio de color global en los tratamientos [11], los sólidos solubles se determinaron en un refractómetro de mesa marca THERMO, la acidez titulable expresada como porcentaje de ácido cítrico se determinó por titulación con NaOH 0,1 N hasta viraje del indicador fenolftaleína, el pH se midió con un potenciómetro de mesa marca Benchtop IQ-240 [12], la viscosidad con un viscosímetro rotacional marca SELECTA de referencia ST 2010 a temperatura ambiente [13]. C. Estabilización del jugo El jugo obtenido se estabilizó evaluando tres gomas (Xantan, pectina y CMC) con tres concentraciones diferentes (0%, 0.025% y 0.05%) y relaciones de mezcla diferentes. Se realizó un diseño experimental en arreglo factorial 33 utilizando como factores las gomas Xantan, CMC y pectina (Figura 1) y la concentración, tomando como variables de respuesta la viscosidad, el tiempo de separación y la distancia de separación de fases. La evaluación de los datos se realizó mediante el modelo de superficies de respuesta [10]. D. Pasteurización y formulación El jugo se pasteurizó durante 15 segundos a 85°C y luego se sometió a enfriamiento y posteriormente se introdujo en bolsas con cierre hermético para ser llevado al congelador [14]. 33 El Calcio se adicionó en un 20% del valor diario recomendado para adultos que es de 1000 mg (NTC 5839 y resolución 333/2011 Minsalud) como Lactato de Calcio, ya que el ion lactato ha sido reportado como el mejor vehículo trasportador de Calcio en matrices acuosas, como lo son los jugos de frutas [15], [16], y [17]. La vitamina C se adicionó como ácido ascórbico anhidro en un 20% del valor diario recomendado que para el caso es de 90 mg. (NTC 5839 y resolución 333/2011 Minsalud) E. Incorporación del microorganismo y determinación de la concentración de unidades formadoras de colonia La cepa de L. casei se reactivó por rehidratación en caldo MRS incubado a una temperatura de 37°C durante 48 horas en condiciones de microaerofilia en una campana de anaerobiosis. La cepa activada se incorporó en esferas de cerámica (CRIOBANK) según instrucciones del fabricante para garantizar su conservación. La determinación de las unidades formadoras de colonia se realizó teniendo en cuenta la escala Mc- Farland para ser comparado por turbidimetría con los tubos que poseen el caldo con el microorganismo y se determinó la concentración de unidades formadoras de colonia inoculadas en el jugo [6]. Se toma la cepa de acuerdo con el tubo Mc- Farland después de haber sometido a centrifugación a 1000 rpm el microorganismo contenido en el caldo MRS y se inocula en el jugo de naranja. En la evaluación del color se observa, en todos los parámetros una diferencia estadísticamente significativa (p < 0.05), esto debido a que el jugo comercial ha sido sometido a tratamientos térmicos de pasteurización, además se la han adicionado colorantes artificiales que ayudan a estabilizar el color del producto final. Resultados similares han sido reportados anteriormente [18], al comparar cambios de color en jugos sin procesar con jugos tratados con pulsos eléctricos de alta intensidad y pasteurizados térmicamente. En estudios anteriores [19] se determinó un cambio en el parámetro L por tratamientos a altas presiones obteniendo valores de 14.48 ± 0.58 y 14.73 ± 0.11 para jugos sin procesar. En un estudio realizado en el 2003 [20] también se reportaron valores de L de 40.22 a 41.22 paras jugo de naranja pasteurizado. En el 2007 [21] se reportaron valores de L 62.2; a 5.19 y b 56.9 para jugos de naranja tratados con ultrasonido. La viscosidad, la acidez y los sólidos solubles concuerdan con los datos reportados por [22] medidos en jugos de naranja tratados a altas presiones, [13] para jugos sin procesar y [23] medidos en jugos de naranja concentrado reconstituido. B. Estabilización del jugo En la figura 1, se observa cómo varían los jugos #1 al #27, desde el día 0 hasta el día 12. F. Caracterización fisicoquímica del producto final Los productos obtenidos se evaluaron durante 20 días para determinar la evolución de la viscosidad, pH y UFC/ mL [10]. Todos los datos fueron analizados en software sthtgraphics XVI centurión. III. Resultados y discusión A. Caracterización inicial del jugo a) Jugos a tiempo cero de almacenamiento. Tabla i. Datos de la caracterización fisicoquímica del jugo recién exprimido. b) Jugos a 15 días de almacenamiento. *Valor Diario Recomendado para un adulto promedio según resolución 333/2011 Ministerio de Protección Social. Fig. 1. Los jugos de las figuras a) son formulaciones de jugos en tiempo cero, con respecto a las figuras b) son formulaciones de jugos después de 12 días almacenados en el refrigerador a 10 °C. Universidad Católica de Pereira 34 1) Evaluación de viscosidad En la iteración realizada sobre la ecuación polinómica generada en la evaluación de la viscosidad con los 3 tipos de goma, se concluyó que para obtener una viscosidad cercana a la del jugo comercial se necesita adicionar 0.02 % de pectina, 0.015 % de carboximetilcelulosa (CMC) y 0.014 % de goma xantan. El resultado de viscosidad simulado sería de 5.17 cP. Este resultado es similar al reportado por [20], [23], [24] y [25]. En una investigación anterior [20] se demostró en su trabajo que la combinación de gomas tiene mejor efecto en cuanto a la estabilización de bebidas, evaluaron la mezcla de goma xantan, carboximetilcelulosa y dextrina en jugo de naranja, obteniendo viscosidades de hasta 0.2 Pa*s. 3) Evaluación de distancia de separación de fases La adición de las gomas, como en este caso, la goma xantan, pectina y carboximetilcelulosa (CMC), permite la interacción fisicoquímica entre la fase continua, la cual se conforma de agua, azúcares y ácidos orgánicos con la fase dispersa, disminuyendo la distancia entre éstas y a su vez el aumento de la viscosidad, con lo cual ayuda a aumentar el tiempo de vida útil del producto y la aceptabilidad sensorial por parte del consumidor, ya que el jugo cambia la forma de fluir y por tanto el consumidor no lo va a asociar solamente con agua, sino con un jugo rico en sólidos y demás componentes propios de la naranja [29], [24], [27], y [20]. También [26] obtuvieron resultados similares al evaluar en su trabajo goma xantan al 0.2% sobre jugo de naranja, obteniendo viscosidades máximas de hasta 0.46 Pa*s Fig. 4. Superficie de respuesta estimada para distancia de separación de fases. Fig. 2. Superficie de respuesta estimada para viscosidad. 2) Evaluación de color En la evaluación de color se tuvo en cuenta el cambio de color global del jugo calculado mediante el ΔE, tomando como parámetros de referencia el color del jugo comercial. Por tanto, la iteración se realizó con el fin de obtener un cercano a cero. Los resultados de la iteración mostraron que el mínimo ΔE (1.67) que se puede obtener con los porcentajes de las gomas permitidos por la norma son de 0.05% de pectina; 0.05% de carboximetilcelulosa y 0% de xantan. Otros autores han evaluado los cambios de color durante el procesamiento por estabilización con emulsificantes, tratamientos térmicos, por ultrasonido o a altas presiones de jugo de naranja obtenido por extracción directa del fruto [25], [27], [11], [28]. Fig. 3. Superficie de respuesta estimada para el cambio de color. Entre Ciencia e Ingeniería La iteración en el polinomio obtenido para lograr la mínima distancia de separación de fases teniendo en cuenta la reglamentación nacional en cuanto a la adición de estabilizantes a jugos de fruta, da como resultado la adición de 0.05% de cada una de las gomas utilizadas en este trabajo (Goma Xantan, Carboximetilcelulosa y Pectina). Estas 3 formulaciones seleccionadas mediante iteración en las 3 ecuaciones obtenidas fueron evaluadas posteriormente con la adición del microorganismo y durante 12 días. Las formulaciones se resumen en la tabla 2. Tabla II. Formulaciones seleccionadas para adición del microorganismo Formulación Xantan 1 2 3 0.014 0 0.05 Estabilizante (%) Pectina 0.02 0.05 0.05 CMC 0.015 0.05 0.05 C. Análisis microbiológico inicial para el jugo de naranja estabilizado El análisis de la carga microbiana del jugo reportó una baja cantidad de microorganismos mesófilos que en promedio es de 800 UFC/ml ± 18,475 y coliformes totales 3 NMP. Estos valores según el decreto 7992 de 1991 están dentro de los parámetros exigidos para un alimento de buena calidad, esto quiere decir que la técnica empleada en la pasteurización fue eficaz y cumplió con el objetivo previsto. 35 Tabla III. Análisis microbiológico del jugo de naranja estabilizado con gomas. Formulación 1 2 3 Análisis (Dilución 10-1) Mesófilos aerobios (UFC/mL) Coliformes totales (NMP/g) 800 3 700 4 900 3 método de las mínimas diferencias significativas (LSD) al 95 % de confiabilidad. Encontrando un valor promedio de pH para las 3 formulaciones de 4.0 ± 0.2, de viscosidad de 5.2 ± 0.3 cP, sólidos solubles 9.0 ± 0.3 % y porcentaje de ácido cítrico de 0.494 ± 0.016 %. Estos datos concuerdan con investigaciones anteriores realizadas por [36], [37] y [38]. D. Formulación final. Las 3 formulaciones iniciales se ajustaron con el fin de seguir los parámetros normativos, adicionar los compuestos fisiológicamente activos en un 20% del valor diario recomendado y mejorar las características sensoriales del jugo. En la siguiente tabla se presentan los ajustes a las formulaciones. Tabla IV. Formulación final del jugo de naranja Componente (%) Formulación 1 2 3 Extracto de naranja (pulpa) 99,246 99,195 99,145 Goma Xantan (Estabilizante) Pectina (Estabilizante) 0,014 0,020 0 0,050 0,050 0,050 Carboximetilcelulosa (Estabilizante) 0,015 0,050 0,050 Citrato de sodio (Regulador de acidez) 0,100 0,100 0,100 Sucralosa (Edulcorante no calórico) Lactato de Calcio Ácido ascórbico (Vitamina C) 0,030 0,310 0,005 0,030 0,310 0,005 0,030 0,310 0,005 Oligofructosa 0,260 0,260 0,260 Total 100 % 100 % 100 % El citrato de sodio se adiciona como regulador de acidez con el fin de aumentar el pH hasta 4. Con esto se disminuye la acidez titulable del jugo desde 0.98% hasta 0.5% en ácido cítrico, el cual es el límite permitido por la norma (CODEX STAN 247-2005) y con esto se mantiene un ambiente adecuado para el crecimiento del L. casei, a su vez se mejora las características sensoriales del producto. Se seleccionó la sucralosa como edulcorante no calórico debido a que endulza 600 veces más que la sacarosa, sólo el 2 % de la cantidad ingerida es absorbida al torrente sanguíneo y según reportes anteriores [30], [31], [32], [33] y [34] las características sensoriales de los jugos de frutas endulzados con sucralosa no cambian significativamente con respecto a aquellos que fueron endulzados con sacarosa. E. Adición y recuento del microorganismo probiótico (Lactobacilos casei) Las colonias aisladas en un medio MRS, fueron redondas, blancas, cremosas y pequeñas, este es el crecimiento característico para este lactobacilo en ese medio de acuerdo con [35]. En la figura 5 se observan las cajas con la siembra de cada formulación de los jugos. Fig. 5. Diluciones de la formulación 1 del jugo de naranja sembradas en Agar MRS. En cuanto a los cambios de los parámetros fisicoquímicos con respecto al tiempo, se observa una disminución de pH para las 3 formulaciones debido a la producción inicial de ácido láctico por parte del microorganismo, pero al llegar al día 15 la producción de ácido se estabiliza y por ende el pH no sigue disminuyendo hasta el día 20, en el cual culminó el estudio. Esta estabilización se da gracias al citrato de sodio agregado como regulador de acidez y al ion lactato adicionado como lactato de calcio, los cuales actúan como amortiguadores con el ácido cítrico propio de la fruta y el ácido láctico producido por la bacteria, impidiendo los cambios drásticos de pH del jugo y con esto ayudando a un aumento de la vida útil del producto. [39], [9], [8] y [30]. F. Caracterización fisicoquímica inicial de las formulaciones La caracterización de las formulaciones con todos los aditivos en el tiempo cero no mostró diferencias estadísticamente significativas entre ellas, evaluadas por el Universidad Católica de Pereira 36 Fig. 6. Comportamiento del pH con respecto al tiempo de almacenamiento a 10 °C Fig. 7. Comportamiento de la viscosidad con respecto al tiempo de almacenamiento a 10 °C Fig. 5. Caracterización de las formulaciones finales en el tiempo cero. En cuanto a la viscosidad no se observan cambios estadísticamente significativos a un nivel de confiabilidad del 95% en todos los tiempos de evaluación de la formulación número 1, indicando esto que la relación Pectina 0.02 %, CMC 0.015 % y Xantan 0.014 % fue la mejor para conservar homogéneo el jugo durante el tiempo de evaluación. Otros autores han evaluado mezcla de gomas. [29] Anteriormente se evaluaron mezclas de gomas xantan, goma guar y almidón sobre jugos de naranja, piña y manzana y otros investigadores [20] evaluaron mezclas de goma xantan, goma guar, carboximetilcelulosa y dextrina sobre jugo de manzana, naranja, Coca-Cola, una bebida hidratante y leche entera. Se puede observar también una diferencia estadísticamente significativa al 95 % de confiabilidad en la viscosidad de la formulación 1 después del 5 día de evaluación con respecto a las formulaciones 2 y 3, también después del 5 día de evaluación. Esto corrobora que la mejor mezcla de goma para la estabilización del jugo de fruta es la de la formulación 1. Entre Ciencia e Ingeniería En las unidades formadoras de colonia se observa un aumento estadísticamente significativo en los 10 primeros días de estudio para las 3 formulaciones. A partir del día 15 hasta el día 20 no se observa un cambio estadísticamente significativo a un nivel de confianza del 95 % evaluado por el método de las mínimas diferencias significativas y a su vez en el test de rango múltiple realizado se observó una homogeneidad del grupo en los días 15 y 20 del estudio, mientras que estos 2 grupos (días 15 y 20) no son homogéneos con respecto a los otros grupos de estudio (días 0, 5, y 10) indicando esto un crecimiento exponencial en los primeros días del microorganismo en jugo y posteriormente un período de estabilidad después del día 15, esto se corrobora también con la producción de ácido láctico, ya que al día 15 se disminuye la producción de éste estabilizando este parámetro en 3.8. Las UFC/mL en promedio para las 3 formulaciones fueron de 7.21 * 109, valor que concuerda con la resolución 333 del 2011 emitida por el Ministerio de Protección Social, la cual indica que para que un alimento pueda catalogarse como probiótico debe tener entre 106 y 109 UFC/mL. Fig. 8. Comportamiento de las UFC/mL con respecto al tiempo de almacenamiento a 10 °C 37 [5] [6] [7] [8] Fig. 9. Comportamiento de la viscosidad evaluada con el método de las mínimas diferencias significativas para la formulación 1 [9] IV. Conclusiones [10] Para estabilizar el jugo de naranja recién exprimido es necesario adicionar 0.02 % de Pectina, 0.015 % de carboximetilcelulosa y 0.014 % de Xantan. Con estas gomas se asegura una mínima separación de fases y una viscosidad constante de 5,2 cP durante el almacenamiento. La adición del microorganismo probiótico (Lactobacilus casei) produce cambios fisicoquímicos en el jugo, especialmente en el pH durante los primeros 10 días, los cuales son contrarrestados con el regulador de acidez adicionado (Citrato de sodio) y con el ion lactato que es adicionado como lactato de calcio, el cual, además cumple la función de compuesto fisiológicamente activo. Entre los días 15 y 20 el pH permanece constante en 3,8. La vitamina C, el Calcio y la oligofructosa permanecen totalmente solubilizados en el jugo sin producir alteraciones en la viscosidad o pH. El microorganismo crece exponencialmente los primeros 10 días de almacenamiento, posteriormente su concentración permanece constante en 7,21 * 109. Con esto y según la resolución 333 del 2011 del Ministerio de Protección Social de la República de Colombia, el jugo de naranja desarrollado en este trabajo se puede considerar como alimento probiótico. Referencias Ferrari, Carlos K.B. 2007. Functional foods and physical activities in health promotion of aging people, Maturitas, 58(4): 327-339. [2] Assmann, G. P.; Buono, A.; Daniele, E.; Della Valle, E.; Farinaro, G.; Ferns, V.; Krogh, D.; Kromhout, L.; Masana, J.; Merino, G.; Misciagna, S.; Panico, G.; Riccardi, A.A.; Rivellese, F.; Rozza, F.; Salvatore, V.; Salvatore, S;. Stranges, M.; Trevisan, B. y Trimarco, C. 2014. Functional foods and cardiometabolic diseases: International Task Force for Prevention of Cardiometabolic Diseases, Nutrition, Metabolism and Cardiovascular Diseases. 24 (12):1272-1300. [3] Davari, S.; Talaei, S.A y Alaei, M. 2013. Probiotics treatment improves diabetes-induced impairment of synaptic activity and cognitive function: Behavioral and electrophysiological proofs for microbiome–gut–brain axis, Neuroscience. 240 (14): 287-296. [4] Machairas Nikolaos, Aikaterini Pistiki, Dionyssia-Irini Droggiti, Marianna Georgitsi, Nikolaos Pelekanos, Georgia Damoraki, Grigorios Kouraklis, Evangelos J. Giamarellos-Bourboulis. 2015. Pre-treatment with probiotics prolongs survival after experimental infection by multidrug-resistant Pseudomonas aeruginosa in rodents: An effect on sepsis-induced immunosuppression, International Journal of Antimicrobial Agents, Available online. [11] [12] [13] [14] [15] [16] [17] [18] [1] [19] [20] [21] [22] Serban Daniela Elena. 2014. Gastrointestinal cancers: Influence of gut microbiota, probiotics and prebiotics, Cancer Letters. 345(2): 258-270. Karimi, R. A.M.; Mortazavian, M.; Karami, M. 2012. Incorporation of Lactobacillus casei in Iranian ultrafiltered Feta cheese made by partial replacement of NaCl with KCl, Journal of Dairy Science. 95(8): 4209-4222. Chaikham Pittaya, Arunee Apichartsrangkoon, Wachira Jirarattanarangsri, Tom Van de Wiele. 2012. Influence of encapsulated probiotics combined with pressurized longan juice on colon microflora and their metabolic activities on the exposure to simulated dynamic gastrointestinal tract, Food Research International. 49(1): 133-142. Awaisheh S.S.; Haddadin, M.S.Y.; Robinson, R.K. 2005. Incorporation of selected nutraceuticals and probiotic bacteria into a fermented milk, International Dairy Journal, 15 (11): 1184-1190. Tripathi M.K. y Giri, S.K. 2014. Probiotic functional foods: Survival of probiotics during processing and storage, Journal of Functional Foods. 9: 225-241. Quintero, V. D.; Giraldo G. y Cortes M. 2012. Evaluación de viscosidad y color en la pulpa de mango común (Mangifera indica l) tratada enzimáticamente. Temas agrarios. Facultad de Ciencias. 17 (2): 66 – 76. Fernández-Vázquez, R.; Stinco, C. M.; Hernanz, D. J. Heredia F. y Vicario, I. M. 2013. Colour training and colour differences thresholds in orange juice, Food Quality and Preference. 30(2): 320-327. Legua, J.B.; Forner, F.; Hernández, M.A. y Forner-Giner, M. 2013. Physicochemical properties of orange juice from ten rootstocks using multivariate analysis, Scientia Horticulturae, 160 (27): 268-273. Magerramov, M.A.; Abdulagatov, A.I.; Azizov, N.D. y Abdulagatov I.M. 2007. Effect of temperature, concentration, and pressure on the viscosity of pomegranate and pear juice concentrates, Journal of Food Engineering. 80(2): 476-489. Vervoort, L.; Van der Plancken, I.; Grauwet, T.; Rian, A.H.; Timmermans, H. C.; Mastwijk, A. M.; Matser, M. E.; Hendrickx, A. 2011. Comparing equivalent thermal, high pressure and pulsed electric field processes for mild pasteurization of orange juice: Part II: Impact on specific chemical and biochemical quality parameters, Innovative Food Science & Emerging Technologies. 12(4): 466-477. Abd-Elhady M. 2014. Effect of citric acid, calcium lactate and low temperature prefreezing treatment on the quality of frozen strawberry, Annals of Agricultural Sciences. 59(1): 69-75. Moraga M.J.; Moraga, G. Fito, P.J.; Martínez-Navarrete, N. 2009. Effect of vacuum impregnation with calcium lactate on the osmotic dehydration kinetics and quality of osmodehydrated grapefruit, Journal of Food Engineering. 90(3): 372-379. Gómez-López V.M.; Orsolani, L.; Martínez-Yépez, A.; Tapia, M.S. 2010. Microbiological and sensory quality of sonicated calciumadded orange juice, LWT - Food Science and Technology. 43(5): 808-813. Cortés, C.; Esteve, M. J. y Frígola, A. 2008. Color of orange juice treated by High Intensity Pulsed Electric Fields during refrigerated storage and comparison with pasteurized juice, Food Control. 19(2): 151-158. Hartyáni P.; István D.; Zsuzsanna C.; Dávid-Balázs K.; Tóth-Markus M. y Sass-Kiss, A. 2011. Physical–chemical and sensory properties of pulsed electric field and high hydrostatic pressure treated citrus juices, Innovative Food Science & Emerging Technologies. 12(3): 255-260. Hyun M. y Byoungseung Y. 2015. Rheological Characteristics of Cold Thickened Beverages Containing Xanthan Gum–Based Food Thickeners Used for Dysphagia Diets, Journal of the Academy of Nutrition and Dietetics. 115(1): 106-111. Tiwari, B.K.; O’ Donnell, C.P.; Muthukumarappan, K. y Cullen, P.J. 2009. Ascorbic acid degradation kinetics of sonicated orange juice during storage and comparison with thermally pasteurised juice, LWT - Food Science and Technology. 42(3): 700-704. Guignon B.; Cristina A.; Sanz, P. y Otero L. 2012. Orange juice pvT-properties for high-pressure processing and modeling purposes: Importance of soluble solids concentration, Food Research International. 46(1): 83-91. Universidad Católica de Pereira 38 [23] Soares Leite T. P.; Augusto, E.D. y Cristianini, M. 2014. The use of high pressure homogenization (HPH) to reduce consistency of concentrated orange juice (COJ), Innovative Food Science & Emerging Technologies. 26: 124-133. [24] Croak S. y Corredig, M. 2006. The role of pectin in orange juice stabilization: Effect of pectin methylesterase and pectinase activity on the size of cloud particles, Food Hydrocolloids. 20(7): 961-965. [25] Mirhosseini H.; Chin P. T.; Nazimah S.A.; Hamid, S.; Yusof, B. y Huey C. 2009. Characterization of the influence of main emulsion components on the physicochemical properties of orange beverage emulsion using response surface methodology, Food Hydrocolloids. 23(2): 271-280. [26] Paquet É.; Raza H.; Laurent F.; Makhlouf, J.; Lemieux, S.; Turgeon, S. 2014. Effect of processing treatments and storage conditions on stability of fruit juice based beverages enriched with dietary fibers alone and in mixture with xanthan gum, LWT - Food Science and Technology. 55(1): 131-138. [27] Remini H.; Mertz, C.; Belbahi, A.; Achir, N.; Dornier, M.; Madani, K. 2015. Degradation kinetic modelling of ascorbic acid and colour intensity in pasteurised blood orange juice during storage, Food Chemistry. 173: 665-673. [28] Meléndez-Martínez A.J.; Gómez-Robledo L.; Melgosa, M.; Vicario, I.M. Heredia, F.J. 2011. Color of orange juices in relation to their carotenoid contents as assessed from different spectroscopic data, Journal of Food Composition and Analysis. 24(6): 837-844. [29] Sopade P.A., Halley, P.J. Cichero, J.A.Y. Ward, L.C. Liu, J. Varliveli, S. 2008. Rheological characterization of food thickeners marketed in Australia in various media for the management of dysphagia. III. Fruit juice as a dispersing medium, Journal of Food Engineering. 86(4): 604-615. [30] Colombo Pimentel T.; Scaramal M.; Prudencio, S. 2014. Probiotic clarified apple juice with oligofructose or sucralose as sugar substitutes: Sensory profile and acceptability, LWT - Food Science and Technology, Available online. [31] Furtado de Oliveira R. y Bolini H. 2014. Different sweeteners in passion fruit juice: Ideal and equivalent sweetness, LWT - Food Science and Technology, Available online. [32] Brown A. W.; Bohan B.; Onken, K.; Beitz, D. 2011. Short-term consumption of sucralose, a nonnutritive sweetener, is similar to water with regard to select markers of hunger signaling and shortterm glucose homeostasis in women, Nutrition Research. 31(12): 882-888. [33] Ferrer I. y Thurman, M. 2010. Analysis of sucralose and other sweeteners in water and beverage samples by liquid chromatography/ time-of-flight mass spectrometry, Journal of Chromatography A. 1217(25): 4127-4134. [34] Basu S.; Shivhare, U.S.; Singh, T.V. 2013. Effect of substitution of stevioside and sucralose on rheological, spectral, color and microstructural characteristics of mango jam, Journal of Food Engineering. 114(4): 465-476. [35] Yuki N.; Koichi W.; Akito.; Yoko.; Ryuichiro T.; Makoto O.; Masami M. 1999. Survival of a probiotic, Lactobacillus casei strain Shirota, in the gastrointestinal tract: Selective isolation from faeces and identification using monoclonal antibodies, International Journal of Food Microbiology. 48(1): 51-57. [36] Carbonell J.V.; Tárrega, A.; Gurrea, M.C.; Sentandreu, E. 2011. Chilled orange juices stabilized by centrifugation and differential heat treatments applied to low pulp and pulpy fractions, Innovative Food Science & Emerging Technologies. 12(3): 315-319. [37] Martinez P.; Martín-Belloso, O. 2007. Effects of high intensity pulsed electric field processing conditions on vitamin C and antioxidant capacity of orange juice and gazpacho, a cold vegetable soup, Food Chemistry. 102(1): 201-209. [38] Martín-Diana A. B.; Rico, D.; Barat, J.M.; Barry-Ryan, C. 2009. Orange juices enriched with chitosan: Optimisation for extending the shelf-life, Innovative Food Science & Emerging Technologies. 10(4): 590-600. [39] Tahiri I.; Makhlouf, J.; Paquin, P. y Fliss, I. 2006. Inactivation of food spoilage bacteria and Escherichia coli O157:H7 in phosphate buffer and orange juice using dynamic high pressure, Food Research International. 39(1): 98-105. Entre Ciencia e Ingeniería Juan Carlos Lucas Aguirre es Ingeniero Agroindustrial, Magister en Ingeniería de alimentos y candidato a doctor en ciencia agrarias de la Universidad Nacional de Colombia, sede Medellín, es Profesor-Investigador de carrera del programa de Ingeniería de alimentos de la Universidad del Quindío. Victor Dumar Quintero Castaño es Químico, Magister en Química de alimentos, es Profesor-Investigador de carrera del programa de Ingeniería de alimentos y Coordinador de la Maestría en Procesos Agroindustriales de la Universidad del Quindío. María Cecilia Londoño Castaño es química de la Universidad del Quindío, egresada en año 2014. Se ha desempeñado como auxiliar de investigación en proyectos ejecutados por el grupo de investigación de agroindustria de frutas tropicales de la Universidad del Quindío durante los años 2012 y 2013. 39 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 39 - 48 Modelos de crecimiento de grietas por fatiga1 Models of fatigue crack growth A. A. Andrade, W. A. Mosquera y L. V. Vanegas Recibido Abril 20 de 2015 – Aceptado Septiembre 23 de 2015 Resumen—Este artículo estudia los diferentes modelos de crecimiento de grietas por fatiga, exponiendo una breve descripción histórica. Siguiendo la línea cronológica en el desarrollo de la investigación, hace especial énfasis en la ley de Paris y luego estudia algunos modelos específicos que, en general, corresponden a investigaciones de punta realizadas por diversos grupos, en el ámbito internacional. El objetivo principal es analizar y discutir las ventajas y desventajas de los diferentes modelos, teniendo en cuenta condiciones como la facilidad de aplicación, la disponibilidad de datos y la validez con respecto a los resultados experimentales. Palabras clave—mecánica de fractura, fatiga, crecimiento de grietas, Ley de Paris, microgrietas, macrogrietas, elementos finitos. Abstract— In this work, different models of fatigue crack growth are studied; a brief historical description on this subject is also provided. The research on this topic is described chronologically; however, emphasis is made on the model proposed by Paris. Then, a number of models that, in general, correspond to cutting-edge research conducted by various international research groups are studied. The main aim of this work is to analyze and discuss the advantages and disadvantages of the different models, taking into account criteria such as ease of application, data availability, and correlation with experimental results. 1 Este trabajo es producto del proyecto de investigación “Modelado de crecimiento de grietas por fatiga por ludimiento”, perteneciente al grupo de investigación Procesos de manufactura y diseño de máquinas, vinculado a la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira. A. A. Andrade, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería Mecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.: [email protected]. W. A. Mosquera, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería Mecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.: [email protected]. L. V. Vanegas, Ingeniero Mecánico, M.Sc., Ph.D., Profesor Titular de la Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.: [email protected]. Key words — fracture mechanics, fatigue, crack growth, Paris Law, microcracks, macrocracks, finite elements. I. Introducción E N la actualidad, la mayoría de componentes de maquinaria presentan discontinuidades o entallas, las cuales generalmente aparecen por su proceso de fabricación y condiciones de funcionamiento. Debido a las cargas cíclicas, con el tiempo, estas discontinuidades provocan la aparición de grietas, las cuales generan gran concentración de esfuerzos que podrían producir fallas en la pieza. El estudio del efecto del esfuerzo aplicado, tamaño de la grieta, geometría de la pieza y velocidad de crecimiento de grieta sobre el crecimiento de grietas por fatiga es de gran interés para la comunidad científica. En el proceso de crecimiento de grieta por fatiga, se presentan tres etapas hasta la rotura de la pieza [1]. Estas etapas, para materiales dúctiles, son: 1. Periodo de nucleación e inicio de la grieta en la zona donde la concentración de esfuerzos provoca deformaciones plásticas cíclicas. Esta etapa no siempre se presenta, ya que el material puede contener imperfecciones tipo grieta. 2. Crecimiento de la grieta en la zona plástica donde se originó. 3. Propagación de la grieta en la pieza, fuera del campo de concentración de esfuerzos donde se originó, hasta producir el fallo final. En este trabajo se estudian diferentes modelos de crecimiento de grietas por fatiga. En el capítulo II se presenta una breve reseña histórica, en orden cronológico, de los modelos desarrollados para determinar el crecimiento de grietas por fatiga. El capítulo III describe la Ley de Paris, indicando el rango en que puede aplicarse y los rangos Universidad Católica de Pereira 40 en los que esta ley no es aplicable. Los capítulos IV a VII presentan diferentes modelos basados en la Ley de Paris, en elementos finitos, en ensayos no destructivos y en la zona cohesiva. El capítulo VIII presenta una comparación de los modelos mostrando sus ventajas y desventajas. Finalmente, las conclusiones son presentadas en el capítulo IX. II. Descripción histórica de las teorías de crecimiento de grieta por fatiga Los primeros estudios con cargas cíclicas en elementos mecánicos se desarrollaron en 1829, cuando el ingeniero W. Albert sometió cadenas elevadoras de material a sucesivas cargas y descargas [2]. En los años 1850, el ingeniero August Wöhler [3] estudió las causas que provocaban fallas por fatiga en los ejes de las ruedas de trenes. La importancia de este trabajo fue establecer los conceptos del límite de fatiga y la gráfica esfuerzo vs. número de ciclos. Posteriormente, Gerber [4], Goodman [5] y Soderberg [6] estudiaron la falla por fatiga cuando se superponen cargas estáticas a las cíclicas. En el año 1921, Griffith [7] estudió la fractura en el vidrio y estableció una teoría sobre el crecimiento inestable de grietas en materiales frágiles. En el año 1940, Miner expuso una teoría para determinar la acumulación de daño por fatiga [8], teniendo como base los aportes realizados por el ingeniero Palmgren [9] [10]. Luego, Weibull [11] [12] empieza a realizar los primeros análisis estadísticos para caracterizar la resistencia. En los años 1950, el ingeniero George Irwin [13] introdujo el término factor de intensidad de esfuerzos (K) el cual cuantifica el campo de esfuerzos alrededor de una grieta y puede expresarse como K=Y∙s∙√p∙a Donde a es el tamaño de la grieta (por ejemplo, la longitud de una grieta de borde), s es el esfuerzo remoto aplicado y Y es un factor geométrico que depende de la geometría, el tipo de carga y las dimensiones del elemento. En los años 1960, los ingenieros Coffin y Manson [14] estudiaron el comportamiento a la fatiga para la condición de alto número de ciclos y su principal contribución fue el diagrama amplitud de la deformación vs. número de ciclos. Neuber [15], Peterson [16] y Stowell [17] investigaron diversas teorías para calcular el tiempo de vida por fatiga y determinaron el comportamiento de las deformaciones plásticas en piezas con diferentes tipos de discontinuidades. En 1961, el ingeniero Paul C. Paris [18] estudió la relación entre la velocidad de crecimiento de la grieta y la variación del factor de intensidad de esfuerzos DK, encontrando una relación muy acertada según los datos experimentales para tamaños de grieta superiores a un milímetro [19], las cuales se denominan grietas medianas y grietas grandes, pero el Entre Ciencia e Ingeniería modelo de Paris no daba aproximaciones reales a problemas que involucraban grietas pequeñas. En 1975, Pearson [20] investigó el crecimiento de microgrietas por fatiga para valores entre 10µm y 100 µm, como alternativa al estudio de Paris. Su estudio concluyó que la velocidad de propagación de la grieta era mucho menor, si se comparaba con los resultados obtenidos al emplear la ley de Paris. Autores como Kitagawa y Takahashi [21] determinaron los tamaños de grietas para los cuales la Mecánica de Fractura Elástica Lineal (LEFM) no arrojaba resultados confiables al tratar de describir la propagación de la grieta. Diversas investigaciones [22] [23] han demostrado que el comportamiento de las microgrietas está fuertemente relacionado con la microestructura cristalina del material. La relación entre la microgrieta y los bordes de grano, la influencia de las orientaciones cristalinas del grano y el tipo de material son factores determinantes para la propagación de grietas pequeñas [24]. III. Ley de paris A. Antecedentes Se entiende por fatiga aquellas situaciones en las que componentes estructurales y mecánicos están sometidos a niveles cíclicos de carga, inferiores a la resistencia máxima (estática) de la pieza, que conllevan a un fallo. Uno de los objetivos en el diseño de fatiga consiste en desarrollar un método para predecir la propagación de grietas, que relacione las propiedades del material con las características geométricas y las diferentes condiciones de carga [25]. Hasta los años sesenta, los métodos de predicción tenían la forma: Donde a, p y q son constantes experimentales, Ds es la variación del esfuerzo remoto aplicado y N es el número de ciclos. En 1963, Paris y Erdogan [18] determinaron que para una variación de cargas cíclicas, la variación del factor de intensidad de esfuerzos (DK) es el parámetro que caracteriza el crecimiento de grietas por fatiga. Donde Kmax y Kmin son los valores máximo y mínimo del factor de intensidad de esfuerzos (si Kmin es negativo se toma igual a cero en la ecuación anterior). Por lo tanto: Los valores smax y smin son los esfuerzos máximo y mínimo de cada ciclo (si, smin< 0, smin se toma igual a cero). 41 B. Ley de Paris Paris propuso una ley empírica basada en los conceptos de LEFM, la cual unificaba todos los datos experimentales de crecimiento de grietas por fatiga, descritos solo parcialmente por los modelos anteriores [18]. Esta ley se expresa: Donde el término es el incremento de la longitud de la grieta por cada ciclo de fatiga y DK es la variación del factor de intensidad de esfuerzos. Para fatiga por tracción el término DK se refiere al factor de intensidad de esfuerzos en Modo I. C y m son constantes que dependen del material y son obtenidas experimentalmente. La constante C también puede depender en cierta medida de la relación de cargas (R): polímeros [26]. El fallo final de un componente, en el que una grieta crece por fatiga, sucede cuando el valor Kmax es igual al valor crítico Kc. Cuando Kmax se aproxima a Kc en la fase III, la grieta crece más rápidamente que en la fase II. En 1967, Laird [27] propuso un modelo de crecimiento de grieta para la fase II, basado en el enromamiento del frente de la grieta, asemejándose al tamaño CTOD (Crack Tip Opening Displacement) alcanzado en cargas crecientes. Si el campo de esfuerzos en el frente de la grieta está a compresión y la cierra parcialmente, entonces se genera una propagación de grieta en cada ciclo. La ecuación de Paris se puede escribir en coordenadas logarítmicas, las cuales arrojan como resultado una recta de pendiente m: En la Fig. 1, se presentan las tres fases de crecimiento de grieta por fatiga [18]. La utilización de la ecuación en la fase I arroja como resultado una predicción menor a la vida real de la pieza, mientras que en la fase III el crecimiento de grieta se acelera fuertemente. La fase II arroja resultados altamente aproximados; es la fase que presenta mejores condiciones y mayor importancia para diseñador. Fig. 2. Esquema del proceso de plastificación y enromamiento del frente de la grieta en la fase II [27]. El modelo de Laird representado en la Fig. 2 [27], se resume así: a) b) c) d) e) f) Mínima carga Carga de tracción creciente Carga de tracción máxima Inicio del descenso de la carga Carga mínima del nuevo ciclo Carga de tracción creciente en el nuevo ciclo La variación de la abertura de frente de grieta se representa por: Aplicando el modelo CTOD, se obtiene: Fig. 1. Curva característica de propagación de grieta [18]. Para cada ciclo de carga, se genera una estriación perpendicular a la dirección de propagación de la grieta y la distancia entre cada estriación es igual al avance en cada ciclo. No obstante, no todos los materiales presentan estriaciones en la propagación de la fase II. Estas aparecen claramente en metales puros, aleaciones dúctiles y en algunos Universidad Católica de Pereira 42 En la mayoría de casos, al reemplazar los términos se obtiene que m » 2; pero en algunos materiales, la relación no es inversamente proporcional a sy . Esta ecuación sólo es válida para la fase II de la ley de Paris. Debido a esto, muchos investigadores se enfocaron en determinar el comportamiento de las grietas para la fase I y para la fase III, lo que arrojó gran cantidad de teorías acerca del crecimiento de microgrietas [28] [29] y otras según el tipo de material [30] [31] [32]. IV. Modelos basados en la ley de paris Diversas investigaciones en todo el mundo [33] [34] [35] tienen como objetivo determinar el comportamiento del crecimiento de grieta por fatiga variando cada término de la ecuación de Paris. Así, algunas investigaciones se enfocan en estudiar el parámetro m y el parámetro C, otras se enfocan en estudiar DK y otras . Algunos de estos modelos actuales se exponen a continuación. A. Determinación del exponente “m” de Paris Para una gran cantidad de casos, el valor del exponente de Paris es m » 2. Pero en realidad, el valor de este exponente arroja resultados en un rango desde 1.5 hasta 4 [36], variando de acuerdo al tipo de material, las condiciones ambientales y el tipo de carga aplicada. Estas constantes no son fáciles de relacionar según el tipo de material. La ecuación de Paris no fue la primera ley en describir el crecimiento de grieta por fatiga. La primera ley se atribuye a la Organización Australiana de Protección de la Ciencia y la Tecnología (Australian Defence Science and Technology Organisation- DSTO) que expresó la ley de la siguiente forma: Donde y es un parámetro que depende de la geometría, el material y el tipo de carga; a es la profundidad de la grieta en el tiempo NL y a0 es la longitud inicial de la grieta cuando el número de ciclos es N = 0. Posteriormente Frost y Dugdale [37] [38] encontraron que y podía ser expresada como: Donde W es una constante y α = 3. El modelo de Frost y Dugdale es conocido como “la ley de los esfuerzos cúbicos”; puede escribirse: La diferencia entre los esfuerzos cuadráticos (Paris) y los esfuerzos cúbicos (Frost y Dugdale) puede ser determinada graficando las funciones de la forma: Entre Ciencia e Ingeniería Las dos curvas pueden ser traslapadas ajustando las constantes A y B, para así determinar las variaciones en y y C de tal forma que coincidan con los resultados experimentales. Recientemente Polak y Zezulka [39] propusieron que la ecuación hallada por DSTO se puede aplicar a microgrietas. Sus experimentos fueron corroborados en aceros inoxidables. B. El modelo de Elber Este modelo se basa en el concepto de cierre de grieta. El factor DK es sustituido por el rango de intensidad de esfuerzos efectivo: Donde Kop es el factor de intensidad de esfuerzos cuando la grieta se abre debido a sop [40]. Para tratar de incorporar la relación de esfuerzos R, varios modelos de cerramiento de grieta parciales han sugerido expresar la ecuación de forma uniforme así: Donde f(R) es una función de la relación de amplitud de carga R. Sin embargo, para ambos modelos es difícil determinar Kop debido a que está relacionado con la relación de cargas R. C. El modelo Kujawski Este modelo no utiliza los conceptos de cerramiento de grieta, sino que implementa una media geométrica de la parte positiva del factor de intensidad de esfuerzos aplicado DK + y el valor máximo Kmax [41]: Donde a es el parámetro de correlación. DK+ = DK cuando R ≥ 0 y DK+ = DKmax para R < 0. Este modelo supone que las cargas cíclicas no contribuyen al crecimiento de grieta por fatiga cuando la relación de carga es negativa. El parámetro α se obtiene al graficar la curva logarítmica Kmax vs K+ dado un crecimiento constante . Al conocer el valor de α es posible conocer el valor de DK+. Este modelo es válido de acuerdo a los datos experimentales si R ≥ 0. D. El modelo mejorado de Huang Huang y Moan [42] propusieron un modelo mejorado para determinar el crecimiento de grieta por fatiga, el cual toma los datos obtenidos de las pruebas con diferentes valores de R y los unifica todos en la curva correspondiente a R = 0. Este modelo supera las aproximaciones de los valores mo para altas relaciones de R obtenidas por el modelo Kujawski [41]. El método se expresa de la siguiente forma: 43 real [47] [48], arrojando como resultado muy buenas aproximaciones [49]. Los métodos de elementos finitos se derivan en métodos locales y métodos energéticos [50]. Donde b y b1 son parámetros dados en [42] y las constantes que dependen del material Co y mo corresponden a las condiciones para las cuales R = 0. Aunque el Método de Elementos Finitos (FEM) es robusto y está muy desarrollado, no permite modelar fácilmente discontinuidades en movimiento como es el caso de la propagación de grieta [51]. La formulación convencional del problema de grieta con FEM requiere mallar la geometría cada vez que la grieta se propague, mientras que el método de los elementos finitos extendidos (XFEM) sólo utiliza una única malla. La gran ventaja de XFEM es que no incluye la grieta en el mallado. [52] A. Métodos locales o directos [53] Son aquellos que permiten obtener una estimación directa de K, basada en la correcta representación de los campos singulares [54] de deformaciones en la proximidad del extremo o frente de grieta. La gran ventaja de la implementación de este método es que evita la necesidad de un postproceso [55] [56] de los resultados, ya que usualmente se combina con el método de los elementos singulares. [57] Fig. 3. Representación esquemática del crecimiento de grietas y los diferentes valores de la relación de cargas R [42]. B. Métodos energéticos o indirectos: la integral de contorno J [58] Bajo las hipótesis de sólido homogéneo con comportamiento elástico, libre de fuerzas por unidad de superficie aplicadas, Rice [58] definió su integral J según la siguiente ecuación: En este modelo el factor de corrección M está dado por una función continua a trozos, teniendo valores de R tanto positivos como negativos. Los valores obtenidos del crecimiento de grieta son muy acertados de acuerdo a los valores obtenidos experimentalmente. No obstante, el modelo posee la gran desventaja de que se desconocen los valores de los parámetros b y b1 (excepto para algunos aceros y aluminios); en el documento donde Huang presenta el modelo no expone la metodología utilizada para calcular dichos parámetros. El modelo sería un éxito si se conocieran más valores de b y b1. Donde (Fig. 4): G: es cualquier camino que rodee el extremo de la grieta, cuyo contorno es (Gt) W: energía de deformación por unidad de volumen T: vector de tracciones en el contorno G u: vector de desplazamientos dG : elemento del arco de la curva G E. Otros modelos Algunos modelos que se basan en la ley de Paris proponen variar DK y Kmax para analizar la propagación de grietas [43] [44]. Otros presentan mejores correlaciones y proponen modelos de predicción de crecimiento de grieta para diferentes relaciones de carga R usando los parámetros DK+ y Kmax [45]. Actualmente es un campo de la mecánica de fractura que presenta gran interés para la comunidad científica en el ámbito mundial. V. Modelos basados en elementos finitos Gracias a los grandes avances en la computación, los modelos basados en elementos finitos [46] han sido ampliamente investigados y aplicados en casos de la vida Fig. 4. Grieta en un dominio bidimensional [58]. Universidad Católica de Pereira 44 · Estudio de crecimiento de grietas por fatiga en 3D usando técnicas de remallado [59] Donde eif es el tensor de deformaciones infinitesimales. Por otra parte, las componentes del vector de tracciones T sobre el contorno G se definen en función del vector unitario n indicado en la Fig. 4. C. Método de elementos finitos extendido (XFEM) De manera general, la aproximación de elementos finitos extendida [51] para el caso de una grieta bidimensional es: Donde: J: conjunto de los nodos no enriquecidos (círculos pequeños en la Fig. 5) J: conjunto de los nodos enriquecidos con funciones Heaviside (círculos grandes en la Fig. 5) k: conjunto de los nodos enriquecidos con funciones de extremo de grieta (cuadros en la Fig. 5) Fl(x): funciones de extremo de grieta N (x): funciones de forma convencionales H (x): función de signo de Heaviside bil: son los grados de libertad (GDL) añadidos a los nodos marcados a los cuadros Este modelo utiliza la teoría FEM basada en el método de la integral J y su contribución principal es aplicar técnicas avanzadas de remallado por zonas con el fin de estudiar la influencia de varios factores como la forma de la grieta y el cerramiento de ella. Los resultados numéricos son comparados con datos experimentales para esfuerzos de torsión, flexión pura y combinados. Si no se tiene en cuenta el modelo de cerramiento de grieta, el modelo no arroja resultados confiables respecto a los datos experimentales, principalmente para estados de esfuerzo combinados. La gran desventaja de este método consiste en modelar y simular el crecimiento de grietas largas no planas. · Modelado en 3D del crecimiento de grietas usando métodos de partición de unidades [60] Esta metodología propone utilizar técnicas de libre mallado aplicadas al rastreo de crecimiento de grieta (Fig. 6). El modelo de Galerkin es propuesto en detalle e implementado en el contexto de XFEM. El método es de especial utilidad en el análisis de propagación de grieta al evitar el problema del remallado, ofreciendo buenos resultados. Fig. 6. Técnica de rastreo del crecimiento de grieta [60]. Este modelo arroja buenas aproximaciones comparadas con los resultados experimentales, especialmente para piezas que involucran una gran deformación y fragmentación. Fig. 5. Malla con XFEM mostrando los nodos enriquecidos con las funciones de Heaviside y las de extremo de grieta [52]. D. Análisis FEM y XFEM en 3D Algunos modelos más refinados de crecimiento de grieta por fatiga que se basan en las metodologías de elementos finitos se han enfocado en estudiar el comportamiento tridimensional del fenómeno físico. Debido a la complejidad matemática y metodológica, sólo se realizará una breve descripción de dichos modelos. Entre Ciencia e Ingeniería El inconveniente del modelo radica en establecer las condiciones para el cerramiento en el frente de la grieta y las condiciones de dominio de ésta. El modelo por sí mismo no proporciona información acertada acerca del factor de intensidad de esfuerzos K alrededor de la grieta en 3D, lo cual limita mucho su implementación en aplicaciones industriales. VI. Modelos basados en ensayos no destructivos Actualmente algunos grupos de investigación estudian diferentes metodologías de crecimiento de grieta basadas en ensayos no destructivos (END). Estos modelos utilizan 45 pruebas de ultra sonido, análisis de rayos X y técnicas fotoelásticas para medir el crecimiento de grieta por fatiga y en muchas ocasiones determinar el tipo de material fracturado. A continuación se exponen dos metodologías donde se implementan END. A. Caracterización del crecimiento de grietas por fatiga del acero RAFM usando técnicas de emisión acústica [61] Esta investigación fue desarrollada para entender las diferentes sub-etapas observadas en el crecimiento de grietas por fatiga y los diferentes umbrales de la ley de Paris, usando la técnica de las emisiones acústicas. Esta metodología se basa puramente en ensayos experimentales y tiene la ventaja de arrojar datos reales de algunos materiales. La mayor desventaja es que requiere de costosos equipos de laboratorio para poder ejecutarlas y elaborados diseños de experimentos para diferentes tipos de material. B. Análisis de la morfología de grieta y patrones de fatiga térmica usando tomografías de rayos x [62] En Nilsson et al. [62], se utilizan rayos x para caracterizar el daño causado por fatiga térmica en un acero para tuberías tipo 316L. En esta metodología se usa una probeta de sección circular, la cual se somete a carga axial; se usa una resistencia que induce calentamiento en la probeta. Los daños observados son geométricamente complejos cuando se tienen grietas circunferenciales y axiales en 3D. Este método tiene la ventaja de obtener resultados experimentales muy precisos, los cuales serían muy difíciles de obtener por medio de cálculos teóricos debido a la gran complejidad en la distribución y orientación de las grietas. La principal desventaja para la implementación de este método está relacionada con los altos costos de los equipos involucrados en el desarrollo del experimento y la puesta a punto en el laboratorio. VII. Modelos basados en la zona cohesiva Esta metodología se basa en el método de los elementos finitos [63]. Se expone en un capítulo independiente debido a que es un modelo ampliamente investigado. [64] [65] En los materiales elásticos y frágiles se supone que no hay fuerzas de cohesión entre las caras de la grieta. En los materiales elastoplásticos simples (o sin endurecimiento por deformación) se supone que pueden existir zonas de cohesión iguales al límite de fluencia entre el fondo de la grieta y cierta profundidad de la pieza, esta región es denominada zona cohesiva [66]. Esta metodología fue desarrollada con el fin de estudiar la fractura súbita de materiales como el hormigón y las rocas y posteriormente fue combinada con los elementos finitos con el fin de tratar de predecir el crecimiento de grieta por fatiga para sólidos isótropos [67]. Estos modelos se denominaron modelos no lineales de mecánica de fractura y están basados en dos conceptos íntimamente ligados: ablandamiento por deformación (strain softening) y un criterio de localización. [68]. Fig. 7. Ilustración grieta con zona cohesiva [68]. A partir de los parámetros elásticos y de fractura se definen dos magnitudes llamadas: abertura característica de grieta (wch) y longitud característica (lch). Donde: GF: energía de fractura, la cual depende del tipo de material sy: esfuerzo de fluencia E: módulo de elasticidad Los parámetros wch y lch son útiles para reducir las dimensiones estructurales a forma adimensional y dan lugar a los números de fragilidad estructural, que cuantifican la fragilidad de un elemento dado. [69] Es de resaltar que aún no se ha podido obtener una teoría completamente general. La teoría está completamente desarrollada para sólidos isótropos para modo I (modo de apertura). El comportamiento de una grieta para sólidos anisótropos, modos mixtos o solicitación no monotónica está todavía sujeto a especulación. VIII. Comparación entre los modelos presentados Para finalizar, la tabla I presenta un listado de los modelos de crecimiento de grietas por fatiga, descritos anteriormente, con sus ventajas y desventajas. IX. Conclusiones En este artículo se hizo una revisión de los principales modelos existentes de crecimiento de grietas por fatiga. Se expusieron de forma concisa las diferentes metodologías utilizadas para modelar el crecimiento de grietas por fatiga, teniendo en cuenta sus facilidades de aplicación, la disponibilidad de datos y la validez respecto a los resultados experimentales. En el capítulo VIII se compararon los diferentes modelos, presentando los resultados generales de ventajas y desventajas. Con esta revisión del estado del arte y el análisis de las características de los diferentes modelos, se concluye Universidad Católica de Pereira 46 que con las condiciones actuales, la ley de Paris parece ser el método matemático a usar en un contexto práctico, aunque sus resultados son aproximados. Otros modelos más refinados podrían usarse en la medida en que se disponga de suficiente información experimental. El método de elementos finitos extendido puede usarse en conjunto con la ley de Paris u otras leyes más refinadas para modelar geometrías y condiciones complejas de crecimiento de grietas por fatiga. Tabla I. ventajas y desventajas de los modelos de crecimiento de grietas MODELO VENTAJAS DESVENTAJAS No aplica para todos los tipos de materiales. Sólo es válido si LEFM es válida. No arroja resultados confiables acerca del periodo de nucleación y crecimiento de microgrietas, ni tampoco de grietas pequeñas. Ha sido aplicado en algunos casos experimentales mostrando buenas aproximaciones, pero generalmente es un modelo de uso más teórico. No existen grandes bases de datos experimentales dado el caso de corroborar una aproximación teórica. Usualmente el factor de intensidad de esfuerzos de apertura de grieta (Kop) es difícil de calcular. Experimentalmente presenta dificultades al tratar de medir los efectos en la grieta, usualmente se desprecia el efecto de la compresión en el cálculo de crecimiento de grietas por fatiga. LEY DE PARIS Este modelo arroja buenas aproximaciones comparadas con los resultados experimentales, especialmente para piezas que involucran una gran deformación y fragmentación. ABERTURA DE GRIETA (CTOD) Este modelo es teórico, de fácil aplicación ya que depende de factores geométricos y según el tipo de material. Presenta una buena aproximación al modelo de crecimiento de grieta por fatiga. ELBER CERRAMIENTO DE GRIETA Modelo de cerramiento ampliamente usado por metodologías más refinadas. Presenta una excelente aproximación al fenómeno de cerramiento de grieta para resultados teóricos. KUJAWSKI El modelo Kujawski no tiene en cuenta los efectos de cerramiento de grieta, por tanto es de muy fácil aplicación teórica ya que no es necesario calcular el Kop. Si R ≥ 0 presenta mejores aproximaciones teóricas a los resultados experimentales, en comparación con la ley generalizada de Paris. No es válido si la relación de cargas es menor a cero (R < 0). HUANG MEJORADO El modelo mejorado de Huang presenta mejores aproximaciones teóricas a los resultados experimentalmente hallados, en comparación con los resultados obtenidos por la ley de Paris, el modelo de Elber y el Kujawski. No existe disponibilidad de datos para la aplicación del modelo debido a que los parámetros que dependen del material no han sido ampliamente investigados. Es un modelo teórico de difícil implementación. ELEMENTOS FINITOS (FEM) Modelo ampliamente investigado. Actualmente es aplicado en todos los casos donde se simulen grietas estáticas. Este modelo es fácilmente aplicable si se utilizan herramientas computacionales. Presenta muy buenas aproximaciones a los resultados experimentalmente hallados. Este modelo no es aplicable para la propagación de la grietas por fatiga. Es muy difícil de implementar si no se tiene una buena herramienta de cómputo. ELEMENTOS FINITOS EXTENDIDOS (XFEM) Este modelo presenta buenas aproximaciones a los resultados experimentales. Es de fácil implementación si se tiene una buena herramienta de cómputo. La mayor ventaja de este método es que no incluye la grieta en el mallado, por tal razón sólo utiliza una única malla. Es indispensable al momento de simular el crecimiento de grieta por fatiga. Es prácticamente imposible implementar este modelo manualmente. El software que utiliza el modelo es de alto costo. Es necesario tener una buena herramienta computacional ya que consume muchos recursos de cómputo. FEM-XFEM 3D MEJORADO CON TECNICAS DE REMALLADO Utiliza la técnica FEM aplicando remallados para cada crecimiento de grieta. Arroja excelentes aproximaciones en comparación con los resultados experimentales. El modelo es independiente del material ya que no utiliza LEFM sino el método de la integral J. No arroja resultados confiables si no se tiene en cuenta el modelo de Elber, principalmente para estados de esfuerzo combinados. La gran desventaja de este método consiste en modelar y simular el crecimiento de grietas largas no planas. FEM-XFEM 3D AMPLIADO CON TECNICAS DE PARTICION DE UNIDADES Este modelo arroja buenas aproximaciones comparadas con los resultados experimentales, especialmente para piezas que involucran una gran deformación y fragmentación. El modelo no proporciona resultados confiables del factor de intensidad de esfuerzos alrededor de la grieta. Teóricamente es difícil definir las condiciones para el cerramiento de grieta y las condiciones de dominio de ésta. BASADOS EN ENSAYOS NO DESTRUCTIVOS (END) BASADOS EN LA ZONA COHESIVA Son modelos experimentales basados principalmente en técnicas de rayos x y ultrasonido. Estudian el crecimiento de grieta para condiciones críticas como es el caso de fatiga por ludimiento y fatiga térmica. Proporcionan modelos experimentales que sirven como referencia para comparar la validez de los resultados teóricos. Este modelo fue desarrollado para utilizar en conjunto con FEM y XFEM. Este modelo aplica para todos aquellos materiales donde no es válido implementar LEFM. Metodología ampliamente investigada con excelentes aproximaciones a resultados para el modo I, si el material es isótropo. Altamente aplicable debido a la implementación de parámetros adimensionales. Entre Ciencia e Ingeniería Los equipos de laboratorio usados para la ejecución de las pruebas son de alto costo, prácticamente sólo los tienen los laboratorios más especializados en el tema. El modelo no se encuentra completamente desarrollado. No es válido para los modos II y III, ni tampoco es válido para materiales anisótropos. 47 Referencias [1] R. L. Norton, Diseño de Máquinas, 4ª ed. Mexico: Ed. Prentice-Hall (Pearson), 2011. [2] W. Schutz, A History of Fatigue, Ottobrun, Germany: Elsevier, 1996, p. 2. [3] A. Wohler, “Test to determinate the forces acting on railway carriage axles and capacity of resistance of the axle,” Enginering, vol. 11, 1871. [4] H. Geber, “Bestimmung der zulässigen spannungen in eisenkonstruktionen (Determinación de los esfuerzos admisibles en estructuras de hierro),” Z. Bayer Arch. Ingenieur-Vereins, vol. 6, 1874, pp. 101-110. [5] J. Goodman, Mechanics Applied to Engineering, London: Longmans, Green & Co., 1899. [6] K. L. Richards, Design Engineer´s Handbook, Washington D.C.: CRC Press, Taylor and Francis Group, 2013. [7] A. A. Griffith, “The phenomena of rupture and flow in solids,” Philosophical Transactions of Royal Society of London, Series A, vol. 221, 1921, pp. 163-198. [8] S. S. Manson y G. R. Halford, Fatigue and Durability of Structural Materials, United States of America: ASM International, 2006. [9] A. G. Palmgren, “Die lebensdauer von kugellargern (Durability of ball bearing),” VDI-Zeitschrift des Vereines Deutscher Ingenieure, vol. 68 (14), 1924, pp. 339-341. [10] M. A. Miner, “Cumulative damage in fatigue,” J. Appl. Mech., vol. 67, 1945, pp. A159-A164. [11] W. Weibull, Fatigue Testing and Analysis of Results, Belfast: Pergamon Press, 1961. [12] W. Weibull, “A statical distribution function of wide applicability,” J. Appl. Mech., vol. 18, 1951, pp. 293-297. [13] G. R. Irwin, “Analyisis of stresses and strains near the end of crack traversing a plate,” J. Appl. Mech., vol. 24, 1957, pp. 361-364. [14] S. S. Manson, “Fatigue: a complex subject-some simple approximations”, Exp. Mech., vol. 5 (4), 1965, pp. 193-226. [15] H. Neuber, “Theory of stress concentration for shear-strained prismatical bodies with arbitrary nonlinear stress-strain law,” J. Appl. Mech., vol. 28 (4), 1961, pp. 544-560. [16] R. E. Peterson, “Notch Sensitivity,” in Metal Fatigue, G. Sines & J. L. Waisman, Eds. New York: McGraw-Hill, 1959, pp. 293-306. [17] E. Z. Stowell, “Stress and strain concentration in a circular hole in an infinite plate,” Naca Tech., Washington, D.C., Tech. Note 2073, 1950. [18] P. Paris y F. Erdogan, “A critical analysis of crack propagation laws,” J. Fluids Eng., vol. 85 (4), 1963, pp. 528-533. [19] R. W. Hertzberg, Deformation and Fracture Mechanics of Engineering Materials, 4th ed., U.S.A.: John Wiley & Sons, Inc., 1996. [20] S. Pearson, “Initiation of fatigue cracks in commercial aluminium alloys and the subsequent propagation of very short cracks,” Eng. Frac. Mech., vol. 7 (2), 1975, pp. 235-240. [21] H. Kitagawa y S. Takahashi, “Applicability of fracture mechanics to very small cracks,” in Proc. ASM: Int. Conf. Mech. Behaviour Mat., Metalspark, Ohio, 1976, pp. 627-631. [22] R. Jones, L. Molent y S. Pitt, “Crack growth of physically small cracks,” Int. J. Fatigue, vol. 29 (9-11), 2007, pp 1658-1667. [23] C. Vallellano Martin, “Crecimiento de grietas pequeñas por fatiga en componentes con concentradores de tensión,” Tesis de Ph.D., Esc. Téc. Sup. Ing. Ind., Univ. Sevilla, Sevilla, 1998. [24] C. Vallellano, J. Vázquez, A. Navarro y J. Domínguez, “Modelo micromecanico de crecimiento de grietas pequeñas por fatiga: una aproximacion basada en dos condiciones umbrales,” Ana. Mecanica de Fractura, vol. 25, 2008, pp. 349-354. [25] N. Pugno, M. Ciavarella, P. Cornetti y A. Carpinteri, “A generalized Paris’ law for fatigue crack growth,” J. Mech. Phys. Solids, vol. 54 (7), 2006, pp. 1333-1349. [26] R. Branco, F. V. Antunes, J. A. Martins Ferreira y J. M. Silva, “Determination of Paris law constants with a reverse engineering technique,” Eng. Failure Analysis, vol. 16 (2), 2009, pp. 631-638. [27] C. Laird, “The Influence of metallurgical structure on the mechanisms of fatigue crack propagation,” Fatigue Crack Propagation ASTM Special Technical Publication 415, 1967, pp. 131-168. [28] J. Geathers, C. J. Torbet, J. W. Jones y S. Daly, “Investigating environmental effects on small fatigue crack growth in Ti–6242S using combined ultrasonic fatigue and scanning electron microscopy,” Int. J. Fatigue, vol. 70, 2015, pp. 154-162. [29] A. Turnbull, S. Zhou y M. Lukaszewicz, “Environmentally assisted small crack growth,” Procedia Materials Science, vol. 3, 2014, pp. 204-208. [30] G. J. Deng, S. T. Tu, Q. Q. Wang, X. C. Zhang y F. Z. Xuan, “Small fatigue crack growth mechanisms of 304 stainless steel under different stress levels,” Int. J. Fatigue, vol. 64, 2014, pp. 14-21. [31] G. M. Owolabi y H. A. Whitworth, “Modeling and simulation of microstructurally small crack formation and growth in notched nickel-base superalloy component,” J. Materials Sc. & Tech., vol. 30 (3), 2014, pp. 203-212. [32] Y. Zhang, H.-J. Shi, J. Gu, C. Li, K. Kadau y O. Luesebrink, “Crystallographic analysis for fatigue small crack growth behaviors of a nickel-based single crystal by in situ SEM observation,” Theo. and App. Frac. Mech., vol. 69, 2014, pp. 80-89. [33] M. Ciavarella, M. Paggi y A. Carpinteri, “ One, no one, and one hundred thousand crack propagation laws: A generalized Barenblatt and Botvina dimensional analysis approach to fatigue crack growth,” J. Mech. Phys. Solids, vol. 56 (12), 2008, pp. 3416-3432. [34] B. Farahmand y K. Nikbin, “Predicting fracture and fatigue crack growth properties using tensile properties,” Eng. Frac. Mech., vol. 75 (8), 2008, pp. 2144-2155. [35] B. E. K. Hachi, S. Rechak, M. Haboussi, M. Taghite y G. Maurice, “Fatigue growth of embedded elliptical cracks using Paris-type law in a hybrid weight function approach,” Comptes Rendus Mécanique, vol. 336 (4), 2008, pp. 390-397. [36] L. Molent, M. McDonald, S. Barter y R. Jones “Evaluation of spectrum fatigue crack growth using variable amplitude data,” Int. J. Fatigue, vol. 30 (1), 2008, pp. 119-137. [37] N. E. Frost, K. J. Marsh y L. P. Pook, Metal Fatigue, Oxford: Oxford University Press, 1974. [38] N. E. Frost y D. S. Dugdale, “The propagation of fatigue cracks in sheet specimens,” J. Mech. Phys. Solids, vol. 6 (2), 1958, pp. 92-110. [39] J. Polak y P. Zezulka, “Short crack growth and fatigue life in austeniticferritic duplex stainless steel,” Fatigue Fracture Eng. Mat. Struc., vol. 28 (10), 2005, pp. 923-935. [40] W. Elbert, “The significance of fatigue crack closure,” ASTM STP, vol. 486, 1971, pp. 230-243. [41] D. Kujawski, “ HYPERLINK “http://www.sciencedirect.com/ science/article/pii/S0142112301000238” A new (ΔK+Kmax)0.5 driving force parameter for crack growth in aluminum alloys ,” Int. J. Fatigue, vol. 23 (8), 2001, pp. 733-740. [42] X. Huang y T. Moan, “Improved modeling of the effect of R-ratio on crack growth rate,” Int. J. Fatigue, vol. 29 (4), 2007, pp. 591-602. [43] S. Stoychev y D. Kujawski, “Analysis of crack propagation using K and Kmax,” Int. J. Fatigue, vol. 27, 2005, pp. 1425-1431. [44] N. Pugno, P. Cornetti y A. Carpinteri, “New unified laws in fatigue: from the Wöhler´s to the Paris´ regime,” Eng. Frac. Mech., vol. 74, 2007, pp. 595-601. [45] S. Dinda y D. Kujawski, “Correlation and prediction of fatigue crack growth for different R-ratios using Kmax and K+ parameters,” Eng. Frac. Mech., vol. 71, 2004, pp. 1779-1790. [46] V. B. Watwood Jr., “The finite method for prediction of crack behavior,” Nuclear Eng. Design, vol. 11 (2), 1970, pp. 323-332. [47] R. Jones, L. Molent y K. Krishnapillai, “An equivalent block method for computing fatigue crack growth,” Int. J. Fatigue, vol. 30, 2008, pp. 1529-1542. [48] I. V. Singh, B. K. Mishra, S. Bhattacharya y R. U. Patil, “The numerical simulation of fatigue crack growth using extended finite element method,” Int. J. Fatigue, vol. 36, 2012, pp. 109-119. [49] H. Pathak, A. Singh y I. V. Singh, “Fatigue crack growth simulations of 3-D problems using XFEM,” Int. J. Mech. Sc., vol. 76, 2013, pp. 112-131. [50] N. Ranganathan, F. Chalon y S. Meo, “Some aspects of the energy based approach to fatigue crack propagation,” Int. J. Fatigue, vol. 30, 2008, pp. 1921-1929. [51] T. Belytschko y T. Black, “Elastic crack growth in finite elements with minimal remeshing,” Int. J. Num. Meth. Eng., vol. 45, 1999, pp. 601620. [52] N. Moës, J. Dolbow y T. Belytschko, “A finite element method for crack growth without remeshing,” Int. J. Num. Meth. Eng., vol. 46, 1999, pp. 131-150. [53] E. Giner, “Estimación del error de discretizacion en el cálculo del factor de intensidad de tensiones mediante elementos finitos.” Tesis de Ph.D., Dept. Ing. Mecánica y de Materiales, Univ. Politecnica Valencia, Valencia, 2001. [54] R. H. Gallagher, “A review of finite element techniques in fracture mechanics,” in Proc. 1st Int. Conf. Num. Meth. Frac. Mech., 1978, pp. 1-25. [55] S. K. Chan, I. S. Tuba y W. K. Wilson, “On the finite element method in linear fracture mechanics,” Eng. Frac. Mech., vol. 2 (1), 1970, pp. 1-17. [56] D. R. J. Owen y A. J. Fawkes, Enginering Fracture Mechanics: Numerical Methods And Applications, Swansea: Pineridge Press, 1983. Universidad Católica de Pereira 48 [57] I. S. Raju y J. C. Newman Jr., “Stress-intensity factors for a wide range of semi-elliptical surface cracks in finite-thickness plates,” Eng. Frac. Mech., vol. 11, 1979, pp. 817-829. [58] J. R. Rice, “A Path independent integral and the approximate analysis of strain concentration by notches and cracks,” J. App. Mech., vol. 35 (2), 1968, pp. 379-386. [59] A. R. Maligno, S. Rajaratnam, S. B. Leen y E. J. Williams, “A threedimensional (3D) numerical study of fatigue crack growth using remeshing techniques,” Eng. Fract. Mech., vol. 77, 2010, pp. 94-111. [60] T. Rabczuk, S. Bordas y G. Zi, “On three-dimensional modelling of crack growth using partition of unity methods,” Comp. & Struc., vol. 88, 2010, pp. 1391-1411. [61] M. Nani Babu, C.K. Mukhopadhyay, G. Sasikala, B. Shashank Dutt, S. Venugopal, S. K. Albert, A.K. Bhaduri y T. Jayakumar, “Fatigue crack growth characterisation of RAFM steel using acoustic emission technique,” Procedia Engineering, vol. 55, 2013, pp. 722-726. [62] K-F. Nilsson, S. Ripplinger, A. Ruiz, M. Bruchhaussen, B. Fischer y M. Gupta, “Analysis of crack morphologies and patterns from thermal fatigue using X-ray tomography,” Procedia Materials Sciencie, vol. 3, 2014, pp. 2180-2186. [63] R. de Borst, “Numerical aspects of cohesive-zone models,” Eng. Fract. Mech., vol. 70, 2003, pp. 1743-1757. [64] B. Yang, S. Mall y K. Ravi-Chandar, “A cohesive zone model for fatigue crack growth in quasibrittle materials,” Int. J. Solids Structures, vol. 38, 2001, pp. 3927-3944. [65] A. Ural, V. R. Krishnan y K. D. Papoulia, “A cohesive zone model for fatigue crack growth allowing for crack retardation,” Int. J. Solids Structures, vol. 46, 2009, pp. 2453-2462, 2009. [66] J. Planas, M. Elices, G. V. Guinea, F. J. Gómez, D. A. Cendón y I. Arbilla, “Generalizations and specializations of cohesive crack models,” Eng. Fract. Mech., vol. 70, 2003, pp. 1759-1776. [67] P. Beaurepaire y G.I. Schueller, “Modeling of the variability of fatigue crack growth using cohesive zone elements,” Eng. Fract. Mech., vol. 78, 2011, pp. 2399-2413. [68] M. Elices, G. V. Guinea, J. Gómez y J. Planas, “The cohesive zone model: advantages, limitations and challengers,” Eng. Fract. Mech., 2002, vol. 69, pp. 137-163. [69] M. Elices, J. Planas, J. Llorc y G. Guinea, “Métodos Numéricos en la Fractura de Materiales Cohesivos ,” en Fractura Cohesiva. Madrid, España: Universidad Politécnica de Madrid, 2001. Ángel Andrés Andrade Morales nació en Armenia, Quindío, el 21 de julio de 1989. Se graduó como Ingeniero Mecánico en la Universidad Tecnológica de Pereira, Pereira (Colombia) en 2014. Obtuvo distinción como mejor Icfes Saber pro en Ingeniería Mecánica a nivel nacional. Fue Supervisor Electromecánico en la empresa Busscar de Colombia. Es Investigador activo en el área de gestión energética, gestión de residuos, ciencias térmicas y diseño. Es Estudiante de segundo año de la Maestría en Ingeniería Mecánica de la Universidad Tecnológica de Pereira. Wilfor Alejandro Mosquera Velásquez nació en Pereira, Risaralda, el 20 de agosto de 1989. Se graduó como Ingeniero Mecánico en la Universidad Tecnológica de Pereira, Pereira (Colombia) en 2012. Fue estudiante distinguido por obtener promedio de carrera de 4.2. Fue Supervisor del Área de Troquelado y de Inyección de Plásticos de Suzuki Motor de Colombia S.A. Actualmente es Estudiante de segundo año de la Maestría en Ingeniería Mecánica de la Universidad Tecnológica de Pereira. Entre Ciencia e Ingeniería Libardo Vicente Vanegas-Useche nació en Pereira, Risaralda, el 20 de mayo de 1972. Se graduó como Ingeniero Mecánico en la Universidad Tecnológica de Pereira, Pereira (Colombia) en 1994. Obtuvo el grado de M.Sc. en Advanced Manufacturing Technology and Systems Management en la University of Manchester, Manchester (Reino Unido) en 1999. Obtuvo el grado de Ph.D. en Mechanical Engineering en la University of Surrey, Guildford (Reino Unido) en 2008. Fue Ingeniero de Fábrica en el Ingenio Central Sicarare S.A. y se desempeñó como Docente de Laboratorio y Elaborador de Páginas Web Educativas en la University of Surrey. Actualmente es Profesor Titular en la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira, La Julita, Pereira (Colombia). Fue Director del Primer Congreso Internacional sobre Tecnologías Avanzadas de Mecatrónica, Diseño y Manufactura AMDM en el año 2012. Ha publicado más de 50 trabajos científicos. Sus intereses de investigación incluyen mecánica de fractura, fatiga, diseño mecánico y modelado de elementos mecánicos mediante el método de elementos finitos. 49 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 49 - 58 Preliminares de la adaptación del algoritmo PA-VNE para la reasignación de redes virtuales mapeadas y la selección entre diferentes tipos de métricas1 Preliminaries in the adaptation of the algorithm PA-VNE for the reallocation of mapped virtual networks and the choice between different types of metrics N. Alzate, J.R. Amazonas y J.F. Botero Recibido Junio 05 de 2015 – Aceptado Septiembre 23 de 2015 Resumen — La arquitectura actual de la internet no permite la introducción de innovaciones debido, entre otras razones, a la competencia entre proveedores de servicio. Como una posible solución a este problema, se ha propuesto, la virtualización de red. Para la implementación de esta tecnología se necesita de un algoritmo que pueda ubicar las redes virtuales sobre los Producto derivado del proyecto de investigación “Adaptación del algoritmo NPA-VNE para la reasignación de redes virtuales mapeadas y la selección entre diferentes tipos de métricas”. Presentado por el Grupo de Investigación GIII, de la Facultad de Ciencias Básicas e Ingeniería, avalado por el centro de innovación e investigación de la Universidad Católica de Pereira y presentado como requisito de grado en la maestría en Computación de la Universidad Tecnológica de Pereira. N. Álzate, docente de la Facultad de Ciencias Básicas e Ingeniería de la universidad Católica de Pereira, Pereira (Colombia); email: nestor. [email protected]. J.R. Amazonas, docente del Departamento de Telecomunicaciones e Ingeniería de Control en EPUSP, Sao Paulo (Brasil); email: [email protected]. usp.br J.F. Botero, Docente en el Departamento de Ingeniería Electrónica y de Telecomunicaciones de la Universidad de Antioquia, Medellín (Colombia); email: [email protected] 1 recursos de la red física, de una forma óptima, según las métricas a considerar. Este artículo presenta los avances preliminares de la investigación acerca de la optimización del algoritmo PA-VNE y su implementación en una red definida por software. Palabras clave — Algebra de Caminos, backtracking, mapeo de redes virtuales, redes definidas por software, relación competitiva, virtualización de redes. Abstract — the current architecture of the internet does not allow the introduction of innovations, due to, among other reasons, competition between service providers. Network virtualization has been proposed as a possible solution to this problem. For the implementation of this technology, an algorithm that can locate the virtual networks on the physical network resources in an optimal way, according to the metrics to consider, is required. This article presents preliminary research advances about the optimization of the algorithm PA-VNE, and its implementation through a software defined network. Descriptors — Path Algebra, backtracking, virtual network mapping, software defined network, competitive ratio, network virtualization. Universidad Católica de Pereira 50 L I. Introducción a Internet ha cambiado la forma de comunicarnos en todos nuestros ámbitos. Desde su creación ha evolucionado incrementalmente, a través de grandes inversiones en diferentes tecnologías, que dan soporte a diversos servicios distribuidos; en consecuencia, la arquitectura de la internet es robusta y se ha osificado [1] dada la dificultad de concertar cambios globales entre los operadores y partes interesadas en la misma. “Como resultado, las alteraciones en la arquitectura de la Internet se han limitado a simples actualizaciones y las implementaciones de nuevas tecnologías de red adicionales se han vuelto cada vez más difíciles” [2]. Por ejemplo: IPv6, servicios integrados (IntServ), servicios diferenciados (DiffServ), IP multicast y protocolos de enrutamiento seguros. La virtualización de redes es una propuesta de arquitectura donde múltiples redes heterogéneas cohabitan sobre una misma red sustrato. Esta característica la hace ideal para acelerar la innovación de servicios; específicamente, el modelo de negocios propuesto por la virtualización de red permite superar la actual osificación de la red misma [3-5]. Un problema fundamental para la virtualización de redes consiste en asignar cada una de las peticiones de redes virtuales (VNR) óptimamente sobre los recursos de la red sustrato (SN). Este problema es formalmente conocido mapeo o incrustación de redes virtuales (VNE), por tal motivo los algoritmos que se diseñan para este tipo de problemas son conocidos como algoritmos VNE [6-8]. Dado el nuevo de modelo de negocios propuesto para Internet con la intervención de la virtualización de redes [9, 10], un factor para poder obtener la mayor cantidad de ganancia, es lograr la mayor cantidad de asignaciones de las VNR sobre la red sustrato. Con este fin se está investigando el desarrollo de algoritmos que estén en capacidad de reasignar recursos de la SN cuando las VNR sean rechazadas, ya sea porque los recursos están siendo utilizados al máximo o porque los recursos de las SN están fragmentados. Una limitante en las investigaciones acerca de los algoritmos VNE, es la dificultad para analizar diferentes criterios de optimización simultáneamente, debido a la cantidad y a la linealidad o no de las variables llamadas métricas. Por otro lado, una nueva arquitectura de red conocida como Redes Definas por Software (SDN) se ha ganado el interés de los investigadores y de la industria. Este nuevo escenario es ideal para la virtualización de redes debido al desacople entre los planos de control y de datos [11], permitiendo la flexibilidad y programabilidad necesarias para la implementación de la virtualización de redes. Entre Ciencia e Ingeniería Por estas razones, el propósito de este estudio es abordar los problemas abiertos de la virtualización de redes anteriormente mencionados mediante la ejecución de los siguientes objetivos: • Diseñar un algoritmo con el fin de reasignar redes virtuales mapeadas cuando una VNR sea rechazada, usando la técnica de backtracking, y adaptarlo al algoritmo Paths Algebra Virtual Network Embedding (PA-VNE) [12]. • Construir un algoritmo bajo el concepto de relación competitiva que permita evaluar la fragmentación de los recursos de la red sustrato y su adaptación al PA-VNE. • Integrar un mecanismo de selección de múltiples métricas que serán evaluadas usando el álgebra de caminos en el PA-VNE. • Implementar la adaptación completa del algoritmo PAVNE en una red definida por software. Las técnicas propuestas con las que se pretende afrontar el problema VNE han sido planteadas o investigadas con resultados favorables. Tal es el caso de la recursividad de backtracking en [13-17], el álgebra de caminos en [12, 18], la relación competitiva [19-23], así como en [24-32] dónde queda evidenciada la conveniencia de utilizar las redes definidas por software para la implementación de la virtualización de redes. Lo que se proyecta hacer con estas técnicas implementadas en el problema VNE, es mejorar la tasa de aceptación del número de redes virtuales mapeadas en la red sustrato, al invocar un algoritmo de marcha atrás cuando una VNR sea rechazada o cuando la relación competitiva indique cierto grado de fragmentación. Este artículo pretende mostrar el acercamiento conceptual de los algoritmos y tecnologías, así como la revisión de antecedentes, ver Tabla I, que fundamentan el proceso de investigación de la tesis de maestría del primer autor, el resto del artículo está organizado de la siguiente manera: la sección 2 hace un análisis del problema VNE. En la sección 3 se explora el álgebra de caminos. La sección 4 pretende explicar las características del algoritmo PA-VNE. La sección 5 estudia la técnica de backtracking. En la sección 6, se realiza un acercamiento teórico acerca de la relación competitiva. La sección 7 muestra los conceptos de las SDN. En la sección 8, se presenta una breve discusión de cómo se han abordado las investigaciones acerca del VNE. La sección 9 presenta los principales desafíos de investigación en el tema de VNE y SDN. La sección 10 presenta las conclusiones de artículo. 51 tabla i. trabajos seleccionados para revisión. Fig 1. Arquitectura basada en virtualización de red [3]. Cuando se modela el proceso, se deben considerar diferentes tipos de escenarios, además de la acción del mapeo; a continuación se mencionan algunos de ellos: • El conocimiento del arribo con o sin antelación de las VNR. • La utilización de los recursos de nodos y enlaces ocultos en el mapeo. • La posibilidad de sufrir modificaciones en la topología de la SN mientras se realiza el mapeo. • Considerar la necesidad de planes de respaldo ante cambios en la topología de la SN. • El grado de fragmentación de los recursos de la SN. • Determinar si la decisión del mapeo está centralizada o distribuida. II. Mapeo de Redes Virtuales La virtualización de redes juega un papel importante al permitir que múltiples arquitecturas de redes heterogéneas cohabiten en una SN [33-36], siendo esta una propuesta llamada a liberar la osificación de internet. El principal desafío de la virtualización de redes reside en garantizar el uso óptimo de los recursos de la red sustrato, cuando se mapean en ella las solicitudes de las redes virtuales [3740]. Los algoritmos que abordan este tipo de problema se conocen como algoritmos VNE. El proceso del mapeo se debe llevar a cabo tanto en los nodos, como en los enlaces de la SN, estos mapeos se conocen como Virtual Node Mapping (VNoM) y Virtual Link Mapping (VLiM), que resuelven el problema de asignar enlaces virtuales a caminos en la red sustrato que conecten a los nodos sustrato, a los que se asignan los nodos virtuales extremos del enlace virtual, respectivamente. Este proceso se ilustra en la Fig 1. La realización de estos mapeos se puede llevar a cabo en etapas separadas [41, 42] o de manera coordinada [43, 44]. La virtualización de red ha llevado a pensar un nuevo modelo de negocios como se describe en [6]: ¨Arquitecturas futuras de la internet estarán basadas en un modelo de negocios de infraestructura como un servicio (IaaS) que separa el rol de los Proveedores de Servicios de Internet (ISPs) en dos nuevos roles: el Proveedor de Infraestructura (InP) quien despliega y mantiene los equipos de red y el Proveedor de Servicios (SP), a cargo del despliegue de protocolos de red y de ofrecer servicios extremo a extremo. Incluso, estos roles se pueden definir en tres actores principales, (ver Fig 2): El Proveedor de Redes Virtuales (VNP), que ensambla los recursos virtuales de uno o más InPs, el Operador de Redes Virtuales (VNO) que instala, administra y opera las redes virtuales (VN) de acuerdo con las necesidades del SP, y el SP que está libre de la administración y se concentra en los negocios mediante el uso de las VN para ofrecer servicios personalizados”. Universidad Católica de Pereira 52 Existe una nueva propuesta denominada New Paths Algebra Virtual Network Embedding (NPA-VNE), este es un algoritmo desarrollado por Xavier Hesselbach, José Roberto Amazonas, Santi Villanueva y Juan Felipe Botero que está en proceso de publicación. Este algoritmo usa el Algebra de Caminos para encontrar una solución al VLiM y VNoM coordinadamente, a diferencia del funcionamiento de la propuesta anterior. Fig 2. Future Internet Business model [6]. Por tal razón los estudios encaminados a buscar una viabilidad económica y tecnológica para la implementación de redes virtuales son pertinentes. III. Algebra de Caminos Un factor importante para la investigación de los algoritmos VNE son las métricas. Se pueden considerar múltiples métricas que apuntan a objetivos de optimización diferentes. Entre los objetivos de optimizaciones podemos nombrar los siguientes: Se puede introducir el concepto de álgebra de camino a través de un ejemplo, cuando se considera que: “una red es representada por un grafo dirigido G=(V,A), donde V es el conjunto de vértices y A es un conjunto de aristas. Considere el camino simple representado en la Fig. 3. El conjunto de vértices está dado por V={1,2,3,4} y el conjunto de aristas está dado por A={a,b,c}. Los nodos de origen y destino son (s,d)=(1,4). Este camino se puede representar ya sea como una sucesión de vértices p1, 4 o una como una sucesión de aristas p a ,c . Cada arista en este ejemplo está caracterizado por una tripleta (m1(x), m2(x). f[m1(x), m2(x)], donde m1(x) y m2(x) son los valores de las métricas m1 y m2 en las aristas x€A; f[m1(x), m2(x)] es una función de combinación de métricas aplicada a m1 y m2. •Calidad de servicio, donde sus métricas son retrasos, utilización, nivel de estrés, rendimiento, longitud del camino y jitter. • Optimización económica, con métricas de costos, ingresos, relación costo/ingreso y relación de admitidos. •Poder de supervivencia, siendo sus métricas asociadas, el número de respaldos, disponibilidad y número de migraciones. • Recursos ambientales con su métrica de eficiencia energética. Debido al gran número y diversidad de métricas que pueden ser utilizadas en un algoritmo de mapeo de redes virtuales, se ha usado un conocido marco matemático que permite resolver problemas de múltiples restricciones, incluyendo métricas lineales o no lineales e incluso la combinación de ambas. El nombre de este marco matemático es algebra de caminos. Los conceptos usados en [45] sientan las bases matemáticas del algebra de caminos y muestran el desarrollo de una herramienta para la ingeniería de tráfico. En [12] utilizan este marco para solucionar el VLiM al encontrar todos los caminos posibles en la SN dando como resultados mejores y más flexibles incrustamientos. IV. PA-VNE El Paths Algebra Virtual Network Embedding es una propuesta que utiliza el marco matemático llamado algebra de caminos para la solucionar la etapa VLiM, su flexibilidad y mejor respuesta a las incrustaciones en la red sustrato, son debido a este marco matemático. Entre Ciencia e Ingeniería Fig 3. (a) Ejemplo de un camino simple. (b) Ejemplo de dos caminos que se ordenaron. En general, el álgebra de caminos usa M como el conjunto de métricas m de enrutamiento y F como la función de combinaciones de métricas k. El conjunto de métricas combinadas de todas las aristas está dado por Una síntesis S[•] es un conjunto de operaciones binarias aplicadas sobre los valores de las métricas combinadas de enlaces a lo largo de un camino, para obtener un resultado que caracteriza este camino, tanto como a las restricciones impuestas por la combinación de métricas le conciernen. Hasta aquí, la síntesis está restringida por el siguiente conjunto: {add(), mult(), max(), min()}. 53 Si el algoritmo de enrutamiento es de una única restricción, solo un valor es obtenido como la síntesis resultante y es llamada la palabra de peso. Si el algoritmo de enrutamiento es de múltiples restricciones, con k restricciones, entonces k valores son obtenidos. En este ejemplo, . La palabra de peso tiene tantas letras como el número de caminos de las aristas. La primera letra corresponde al valor resultante de la síntesis aplicada a todo el camino; la segunda letra corresponde al valor resultante de la síntesis aplicada al subcamino obtenido por deshacer la última arista; la última letra corresponde al valor resultante de la síntesis aplicada al subcamino hecho de solo la primera arista. Cualquier número de letras pueden se retenidas como el resultado de la síntesis y esto es llamado una abreviación: representa una abreviación de j-letras; representa ninguna abreviación, por ejemplo, cuando todas las letras son tomadas en cuenta. Ordenando los caminos. Considere la red representada en la Fig. 3b donde dos caminos conectan el nodo origen 1 al nodo destino 4. Estos caminos son α = (1,2,3,4) = (a,b,c) y β = (1,5,4) = (d,e). Cada camino de arista es caracterizada por una tripleta , (m1(x), m2(x). f[m1(x), m2(x)] donde f[m1(x), m2(x)] = m1(x)xm2(x). La síntesis que se utilizada en este ejemplo está dada por . S[•]=[min( ) max ( ) add ( )] tabla ii . resultados de la síntesis de la red dada en fig. 3b Diferentes síntesis también tienen diferentes prioridades. En el ejemplo, las prioridades S1 , S 2 y S 3 van desde la más alta a la más baja. La Tabla III resume los resultados obtenidos para los tres diferentes criterios de orden. Es importante darse cuenta que las letras de la síntesis son examinadas desde las más alta prioridad a la síntesis de menor prioridad. Cuando los caminos son considerados equivalentes, entonces examinaremos ya sea la siguiente letra de la misma síntesis o nos desplazamos a la próxima síntesis. Esto se determina por la abreviatura adoptada” [12]. V. Backtracking Entre las técnicas de diseño de algoritmos el método de backtracking o de marcha atrás, es ampliamente utilizado para los problemas de optimización, cuando hay que satisfacer varias restricciones [46-48]. Este método es similar a la búsqueda en profundidad de un grafo y puede adaptarse para encontrar diferentes soluciones: bien sea la primera en encontrarse, todas las soluciones o la mejor entre todas las encontradas. En su ejecución hay dos posibles estados, el de éxito o fracaso. El estado de éxito se logra cuando se ha encontrado el tipo de solución deseada y el estado de fracaso se da cuando la solución parcial no puede ser completada, aquí el algoritmo da vuelta atrás en su recorrido eliminando los nodos que se hubieran agregado en cada etapa a partir de ese nodo. Sin embargo, se deben usar técnicas más ingeniosas para mejorar el rendimiento de este tipo de algoritmos, si se quiere enfrentar problemas altamente combinatorios, como el problema VNE. Los trabajos encontrados bajo esta perspectiva se relacionan a continuación: tabla iii. Ordenando caminos de la red dada en la fig. 3b. Los resultados de la síntesis se muestran en la Tabla II. Un camino α es peor o menos optimizado que el camino β, si, S[a]≤ML S[b] donde ≤MLes sinónimo de orden léxico multidimensional. En el ejemplo ≤ML= {≥, ≤, ≥}que se traduce por el siguiente orden de relaciones: Yuan, et al. [13] exponen un nuevo enfoque para optimizar los recursos de la red sustrato. Su algoritmo denominado WD-VNE utiliza ventanas deslizantes en la cola de solicitudes para el mapeo de los nodos, basado en el grado de conectividad y la capacidad total. El algoritmo utiliza la técnica de backtracking para encontrar las soluciones. Las diferentes pruebas muestran mejor desempeño que la mayoría de los algoritmos evaluados. Fajjari, et al. [14] proponen una estrategia de asignación de recursos para las redes virtuales que mejora complejidad y eficiencia con respecto a propuestas anteriores. Se busca específicamente, usar el ancho de banda no utilizado en los mapeos de los enlaces. Para esto utilizan un algoritmo backtracking que genera la topología de la red virtual total, esta se divide en topologías de estrella con el fin dividir el problema y hacer más fácil la búsqueda de recursos libres. Las simulaciones muestran que la estrategia de asignación es más eficiente que las propuestas encontradas en la literatura. Fajjari, et al. [15] enfrentan el problema de la asignación eficiente de recursos en el backbone de la infraestructura de una red en la nube. Con esto se pretende dar cumplimiento a Universidad Católica de Pereira 54 los requerimientos de los usuarios mientras se maximizan los ingresos del proveedor de servicios. Su estrategia llamada Backtracking-VNE garantiza tanto el grado de ocupación de la red como la asignación de recursos a las peticiones de redes virtuales. Di, et al. [16] encaran el problema de la asignación de recursos en la red sustrato por las solicitudes de las redes virtuales. Crean un algoritmo en línea de mapeo de redes virtuales llamado OVNM, que se basa en la técnica de backtracking para mejorar la probabilidad de mapeos exitosos. Las pruebas en simulaciones develan que el algoritmo tiene un aceptable tiempo de ejecución y una mejora en la probabilidad del bloqueo de la red sustrato, lo que implica más incrustaciones de redes virtuales. Lischka and Karl [17] desarrollaron un algoritmo usando una técnica de la teoría de grafos llamada detección de grafos isomorfos a través de un algoritmo backtracking, el cual llamaron vnmFlib. Este algoritmo realiza el mapeo de nodos y enlaces en una sola etapa teniendo en cuenta múltiples métricas y llegadas de solicitudes dinámicas en línea. Se evaluó el algoritmo con respecto a otros, mostrando mejores mapeos en menos tiempo, demostrando también mejor comportamiento en redes de grandes escalas. VI. Relación competitiva En la ciencia de la computación hay dos tipos de algoritmos: los fuera de línea y en línea. Los algoritmos fuera de línea tienen conocimiento de todos los datos que van a entrar al sistema, en cambio los algoritmos en línea toman decisiones a medida que van llegando los datos sin previo conocimiento de los mismos; los algoritmos en línea tratan con problemas que son difíciles de resolver debido a dos razones: o bien porque el espacio de búsqueda es demasiado grande y complejo para buscar de manera eficiente una solución óptima, o porque el espacio de búsqueda no es completamente conocido y las entradas para el problema se describen gradualmente a lo largo de la ejecución de algoritmo [49], por tal motivo no se conoce si la solución adoptada será la más óptima según las entradas futuras. El poder evaluar el desempeño entre un algoritmo en línea y uno fuera de línea, es la idea base del concepto conocido como relación competitiva. Este concepto muestra su utilidad en el modelo de negocio IaaS, si deseamos determinar cuál algoritmo realiza más incrustaciones de VNR sobre la SN. Se encontró que son pocos los desarrollos de algoritmos bajo ese concepto para el problema VNE, los siguientes, son algunos casos donde este tipo de algoritmo fue tenido en cuenta: Even, et al. [19] realizan un algoritmo en línea llamado GVON, este algoritmo lo describe como genérico debido a que soporta VNR de múltiples modelos de tráfico y de enrutamiento, implicando que los recursos de la red pueden ser compartidos entre diferentes solicitudes de diferentes tipos. Al ser un algoritmo en línea utilizaron el concepto Entre Ciencia e Ingeniería de relación competitiva para probar que su algoritmo no presenta un gran decremento del desempeño en contraste con un algoritmo fuera de línea. Xing, et al. [20] construyen un algoritmo con base en el concepto de conectividad de la teoría de grafos, con el fin de disminuir la fragmentación de la red sustrato. Para ello diseñaron una métrica llamada RFD para determinar la fragmentación de recursos. Sus resultados muestran una mayor cantidad de asignación de redes virtuales en relación con otros algoritmos VNE. Wanis, et al. [21] entregan dos desarrollos para mejorar la fragmentación y reasignación de los recursos de la red física. El primer aporte es un método para ubicar y reasignar redes virtuales que generan fragmentación y el segundo es una técnica de migración en línea de las redes virtuales, afectando mínimamente los tiempos de interrupción por estos procesos. Jmila, et al. [22] abordan el problema de la fragmentación en los nodos de la red sustrato y el costo que involucran las reasignaciones disparadas. Su trabajo es comparado con el algoritmo DVNMA NS y los resultados muestran notables mejorías en la tasas de aceptación de solicitudes de redes virtuales así como una reducción en los tiempos de ejecución del algoritmo. Phuong Nga, et al. [23] abordan la migración de VN en algoritmos en línea así como los tiempos de la reconfiguración. Proponen un mecanismo reactivo de reconfiguración. Presentan sus resultados comparando su algoritmo con otros que no usan técnicas de reconfiguración. VII. Redes definidas por software Por otra parte, las redes definidas por software son una arquitectura de red emergente que maneja los planos de control y de envío de datos por separado. “SDN es un nuevo enfoque para la programabilidad de la red, que se refiere a la capacidad de controlar, modificar y administrar el comportamiento de la red de forma dinámica, a través de software, vía interfaces abiertas, a diferencia de depender de cajas cerradas y de las interfaces definidas por los propietarios” [50]. Estas características ayudarán al avance en investigación e implementación de nuevos protocolos y técnicas, así como en la mejor administración de las redes de datos. En las redes definidas por software se pueden aislar redes virtuales sobre una misma red sustrato, creando particiones, donde cada una de ellas tiene control de reenvió por separado, esto convierte a las SDN en un escenario ideal para la virtualización de redes [51-56]. Openflow es un estándar abierto para las SDN, que está permitiendo llevarlas a su implementación en el sector de las telecomunicaciones, su auge e importancia se ven reflejados en los centros de pruebas e investigaciones abiertas a la comunidad científica [57], tanto en Europa con 55 OFELIA (OpenFlow in Europe: Linking Infrastructure and Applications) [58], y en Estados Unidos con GENI (Global Environment for Network Innovations) [59], así como su implementación en los equipos de las grandes compañías de networking [60]. Por los motivos anteriores se propone implementar la adaptación del algoritmo PA-VNE en las SDN con el fin de verificar su funcionalidad en un ambiente ya sea real o emulado. En la literatura se encontraron diversos trabajos con propuestas similares: Papagianni, et al. [29] estudian el comportamiento de diferentes algoritmos de mapeo de topologías virtuales en ambientes de computación en la nube sobre redes definidas por software. Para obtener el algoritmo adaptaron uno ya propuesto con los requerimientos de Openflow. Concluyen que su algoritmo mejoró la eficiencia de los valores viables de las cabeceras de las capas 1-4. contingencia. Específicamente hablando de la integración de las técnicas propuestas, además de lo descrito en las secciones anteriores, se puede agregar que una adecuada selección de una técnica de backtracking ayudará a mejorar la taza de aceptación, debido a que esta técnica permitirá redistribuir las cargas en la SN para aceptar más VN, una síntesis de estos hallazgos se muestra en la Tabla IV. Lo que se hará específicamente, es analizar en qué momentos se aplicará, dado su alto consumo computacional y hasta donde se haría el retroceso para realizar el remapeo de las VNR. Con respecto a la relación competitiva, se está analizando como determinar el grado de fragmentación y consecuentemente encontrar un porcentaje óptimo que sirva como una medida para realizar remapeos con backtracking. tabla iv. clasificación de trabajos según los escenarios vne. Demirci and Ammar [30] plantean una técnica para el mapeo de redes virtuales en redes definidas por software realizando simultáneamente el mapeo de los nodos-enlaces y la ubicación del controlador. Se trazaron dos objetivos para su técnica: el primero es mantener un balance de las cargas en la red sustrato y el segundo minimizar los retardos entre el controlador y los switches. Se basaron en la herramienta de emulación Mininet para evaluar su algoritmo y el FlowVisor [61] como plataforma para la virtualización. Sus resultados muestran que no fue posible optimizar los dos objetivos al mismo tiempo, aunque si sólo se centraban en un único objetivo, el desempeño sí mejoraba. Drutskoy, et al. [31] desarrollan una solución para la virtualización en redes definidas por software llamada FlowN. Diseñaron una arquitectura utilizando dos enfoques como son las tecnologías de base de datos para el mapeo de redes virtuales sobre la red sustrato y un controlador compartido para cada red virtual. El desarrollo concluye con una herramienta para la capa de virtualización de red que mejora la latencia en comparación con FlowVisor. Riggio, et al. [32] examinan el problema del mapeo de topologías virtuales sobre las redes definidas por software. El trabajo entrega la evaluación comparativa entre los algoritmos VNE heurísticos en topologías regulares y aleatorias, además crea una técnica nombrada VT-Planner. Los resultados de las mediciones indican que le VT-Planner logra un mejor desempeño y una menor complejidad comparado con los VNE heurísticos evaluados. VIII. Discusión El problema conocido como VNE ha sido estudiado ampliamente, pero la revisión bibliográfica muestra que la mayoría de los algoritmos propuestos se basan en soluciones que son centralizadas en cuanto a la entidad que toma las decisiones del incrustamiento; igualmente poco se ha tratado con tiempos finitos para las VNR, que liberarían recursos en la SN; además faltan más propuestas que tengan en cuenta una solución alternativa como respaldo en caso de alguna IX. Desafios de investigación Se encontraron varios caminos para posibles investigaciones relacionadas con el VNE, los cuales son presentados a continuación. Un tema remanente son las investigaciones que consideren la solución al problema VNE de una forma distribuida [6]. Debido a la complejidad computacional de las soluciones, se plantea la necesidad de repartir los recursos necesarios para alcanzar la solución a través de varios nodos. Otro tema es el estudio de la seguridad cuando coexisten diferentes VN en una misma infraestructura [62], esto es debido a que, satisfacer los diferentes requisitos de seguridad de cada uno de los actores involucrados, implica la creación de algoritmos VNE que eviten contradicciones entre esos requisitos, además de considerar los riesgos de seguridad en la coexistencia entre diferentes VN cuando se realicen los mapeos. También se proponen estudios acerca de algoritmos que optimicen la eficiencia energética en las SN [63, 64], en gran medida, pensando en las implementaciones de estos algoritmos en centros de datos, donde el consumo de energía Universidad Católica de Pereira 56 es muy elevado. Otro desafío se centra en la incursión de las redes ópticas tanto en las SDN como en el VNE [65, 66], entre los retos específicos de este tema, se centra en cómo virtualizar, si existen o no dispositivos electrónicos en los nodos y cómo aprovechar la flexibilidad de las SDN en el aprovisionamiento de ancho de banda dinámico en las redes de área global. Se evidencio también la necesidad de investigación sobre el VNE en centro de datos [67] con el fin de maximizar la capacidad computacional en diferentes tipos de servicios. Nuevos desafíos se han encontrado en una iniciativa que ha evolucionado de la virtualización de redes y que ha sido propuesto desde la industria, dicha iniciativa se denomina Virtualización de Funciones de Red NFV [68, 69], esta iniciativa quiere superar la dependencia que tienen las redes de datos de dispositivos de hardware especializados para funciones específicas, lo que incrementa los costos de inversión y operación de los operadores de la red. Como las NFV evolucionan a partir de las VN, varios de sus desafíos son heredados, encontrando algunas similitudes en los problemas de investigación, es por esta razón que se presenta, en esta sección, este tema. Entre sus desafíos se encuentran la ubicación y asignación de recursos en la SN, la seguridad para las aplicaciones que serán albergadas en un mismo nodo, estudios que encuentre la mejor forma de hacer la combinación de las SDN y las NFV, así como métodos de sincronización entre las diferentes funciones de red. Particularmente, no se encontró un algoritmo VNE que combine el mapeo de nodos y enlaces coordinadamente, tomando decisiones con el álgebra de caminos, además que utilice la técnica de backtracking y relación competitiva para mejorar la cantidad de VNR aceptadas en la SN. X. Conclusiones La revisión conceptual de los temas y de su literatura asociada con los objetivos de este trabajo, evidencia que existen una extensa base de investigación acerca de la virtualización de redes y su problema asociado el VNE, pero aún se requieren más investigaciones que tengan en cuenta la optimización de esta tecnología pensando en el modelo de negocios IaaS. Esto se ve reflejado por los escasos trabajos que intentan resolver problemas que se presentarían en ambientes no simulados, tales como, llegadas de VNR sin previo conocimiento, reconfiguración de las VN en la red sustrato para una mayor cantidad de incrustaciones según prioridades o calidad de servicios, así como su funcionamiento, en los que sé evidencio, sería su ambiente natural, las SDN. Referencias [1] J. Turner, “Virtualizing the Net - a strategy for enabling network innovation [Keynote 2],” in High Performance Interconnects, 2004. Proceedings. 12th Annual IEEE Symposium on, 2004, pp. 2-2. [2] N. M. M. K. Chowdhury and R. Boutaba, “A survey of network virtualization,” Computer Networks, vol. 54, pp. 862-876, 4/8/ 2010. [3] N. M. M. K. Chowdhury and R. Boutaba, “Network virtualization: state of the art and research challenges,” Communications Magazine, IEEE, vol. 47, pp. 20-26, 2009. [4] O. Braham, A. Amamou, and G. Pujolle, “Virtual Network Entre Ciencia e Ingeniería [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] Urbanization,” in Communications: Wireless in Developing Countries and Networks of the Future. vol. 327, A. Pont, G. Pujolle, and S. V. Raghavan, Eds., ed: Springer Berlin Heidelberg, 2010, pp. 182-193. Z. Sheng, Q. Zhuzhong, W. Jie, L. Sanglu, and L. Epstein, “Virtual Network Embedding with Opportunistic Resource Sharing,” Parallel and Distributed Systems, IEEE Transactions on, vol. 25, pp. 816-827, 2014. A. Fischer, J. F. Botero, M. Till Beck, H. de Meer, and X. Hesselbach, “Virtual Network Embedding: A Survey,” Communications Surveys & Tutorials, IEEE, vol. 15, pp. 1888-1906, 2013. Z. Zhang, S. Su, Y. Lin, X. Cheng, K. Shuang, and P. Xu, “Adaptive multi-objective artificial immune system based virtual network embedding,” Journal of Network and Computer Applications, vol. 53, pp. 140-155, 7// 2015. X. Guan, B.-Y. Choi, and S. Song, “Energy efficient virtual network embedding for green data centers using data center topology and future migration,” Computer Communications, 2015. G. Schaffrath, C. Werle, P. Papadimitriou, A. Feldmann, R. Bless, A. Greenhalgh, et al., “Network virtualization architecture: proposal and initial prototype,” presented at the Proceedings of the 1st ACM workshop on Virtualized infrastructure systems and architectures, Barcelona, Spain, 2009. H. Yoonseon, L. Jian, C. Jae-Yoon, Y. Jae-Hyoung, and J. W. K. Hong, “SAVE: Energy-aware Virtual Data Center embedding and Traffic Engineering using SDN,” in Network Softwarization (NetSoft), 2015 1st IEEE Conference on, 2015, pp. 1-9. M. Jammal, T. Singh, A. Shami, R. Asal, and Y. Li, “Software defined networking: State of the art and research challenges,” Computer Networks, vol. 72, pp. 74-98, 10/29/ 2014. J. F. Botero, M. Molina, X. Hesselbach-Serra, and J. R. Amazonas, “A novel paths algebra-based strategy to flexibly solve the link mapping stage of VNE problems,” Journal of Network and Computer Applications, vol. 36, pp. 1735-1752, 11// 2013. Y. Yuan, C. Wang, N. Zhu, C. Wan, and C. Wang, “Virtual Network Embedding Algorithm Based Connective Degree and Comprehensive Capacity,” in Intelligent Computing Theories. vol. 7995, D.-S. Huang, V. Bevilacqua, J. Figueroa, and P. Premaratne, Eds., ed: Springer Berlin Heidelberg, 2013, pp. 250-258. I. Fajjari, N. Aitsaadi, G. Pujolle, and H. Zimmermann, “AdaptiveVNE: A flexible resource allocation for virtual network embedding algorithm,” in Global Communications Conference (GLOBECOM), 2012 IEEE, 2012, pp. 2640-2646. I. Fajjari, N. Aitsaadi, G. Pujolle, and H. Zimmermann, “An optimised dynamic resource allocation algorithm for Cloud’s backbone network,” in Local Computer Networks (LCN), 2012 IEEE 37th Conference on, 2012, pp. 252-255. H. Di, H. Yu, V. Anand, L. Li, G. Sun, and B. Dong, “Efficient Online Virtual Network Mapping Using Resource Evaluation,” Journal of Network and Systems Management, vol. 20, pp. 468-488, 2012/12/01 2012. J. Lischka and H. Karl, “A virtual network mapping algorithm based on subgraph isomorphism detection,” presented at the Proceedings of the 1st ACM workshop on Virtualized infrastructure systems and architectures, Barcelona, Spain, 2009. S. Escriche Fernández, “Network virtualization and traffic engineering in Software-Defined Networks,” Master thesis, Universitat Politècnica de Catalunya, 2014. G. Even, M. Medina, G. Schaffrath, and S. Schmid, “Competitive and deterministic embeddings of virtual networks,” Theoretical Computer Science, vol. 496, pp. 184-194, 7/22/ 2013. L. Xing, L. Hancheng, Z. Wei, and H. Peilin, “VNE-RFD: Virtual network embedding with resource fragmentation consideration,” in Global Communications Conference (GLOBECOM), 2014 IEEE, 2014, pp. 1842-1847. B. Wanis, N. Samaan, and A. Karmouch, “Substrate network house cleaning via live virtual network migration,” in Communications (ICC), 2013 IEEE International Conference on, 2013, pp. 2256-2261. H. Jmila, I. Houidi, and D. Zeghlache, “RSforEVN: Node reallocation algorithm for virtual networks adaptation,” in Computers and Communication (ISCC), 2014 IEEE Symposium on, 2014, pp. 1-7. T. Phuong Nga, L. Casucci, and A. Timm-Giel, “Optimal mapping of virtual networks considering reactive reconfiguration,” in Cloud 57 [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] Networking (CLOUDNET), 2012 IEEE 1st International Conference on, 2012, pp. 35-40. J. F. Botero, “Study, evaluation and contributions to new algorithms for the embedding problem in a network virtualization environment,” Thesis Doctoral, Universitat Politècnica de Catalunya, 2013. N. Feamster, J. Rexford, and E. Zegura, “The road to SDN: an intellectual history of programmable networks,” SIGCOMM Comput. Commun. Rev., vol. 44, pp. 87-98, 2014. M. Casado, N. Foster, and A. Guha, “Abstractions for softwaredefined networks,” Commun. ACM, vol. 57, pp. 86-95, 2014. Y. Jarraya, T. Madi, and M. Debbabi, “A Survey and a Layered Taxonomy of Software-Defined Networking,” Communications Surveys & Tutorials, IEEE, vol. 16, pp. 1955-1980, 2014. R. Guerzoni, R. Trivisonno, I. Vaishnavi, Z. Despotovic, A. Hecker, S. Beker, et al., “A novel approach to virtual networks embedding for SDN management and orchestration,” in Network Operations and Management Symposium (NOMS), 2014 IEEE, 2014, pp. 1-7. C. Papagianni, G. Androulidakis, and S. Papavassiliou, “Virtual Topology Mapping in SDN-Enabled Clouds,” in Network Cloud Computing and Applications (NCCA), 2014 IEEE 3rd Symposium on, 2014, pp. 62-67. M. Demirci and M. Ammar, “Design and analysis of techniques for mapping virtual networks to software-defined network substrates,” Computer Communications, vol. 45, pp. 1-10, 6/1/ 2014. D. Drutskoy, E. Keller, and J. Rexford, “Scalable Network Virtualization in Software-Defined Networks,” Internet Computing, IEEE, vol. 17, pp. 20-27, 2013. R. Riggio, F. De Pellegrini, E. Salvadori, M. Gerola, and R. Doriguzzi Corin, “Progressive virtual topology embedding in OpenFlow networks,” in Integrated Network Management (IM 2013), 2013 IFIP/IEEE International Symposium on, 2013, pp. 1122-1128. H. Wen, P. Tiwary, and T. Le-Ngoc, “Network Virtualization: Overview,” in Wireless Virtualization, ed: Springer International Publishing, 2013, pp. 5-10. N. Fernandes, M. D. Moreira, I. Moraes, L. Ferraz, R. Couto, H. T. Carvalho, et al., “Virtual networks: isolation, performance, and trends,” annals of telecommunications - annales des télécommunications, vol. 66, pp. 339-355, 2011/06/01 2011. X. Chen, C. Li, and Y. Jiang, “Optimization Model and Algorithm for Energy Efficient Virtual Node Embedding,” Communications Letters, IEEE, vol. 19, pp. 1327-1330, 2015. J. Liao, M. Feng, S. Qing, T. Li, and J. Wang, “LIVE: Learning and Inference for Virtual Network Embedding,” Journal of Network and Systems Management, pp. 1-30, 2015/05/13 2015. M. Rahman, I. Aib, and R. Boutaba, “Survivable Virtual Network Embedding,” in NETWORKING 2010. vol. 6091, M. Crovella, L. Feeney, D. Rubenstein, and S. V. Raghavan, Eds., ed: Springer Berlin Heidelberg, 2010, pp. 40-52. M. Melo, J. Carapinha, S. Sargento, L. Torres, P. Tran, U. Killat, et al., “Virtual Network Mapping – An Optimization Problem,” in Mobile Networks and Management. vol. 97, K. Pentikousis, R. Aguiar, S. Sargento, and R. Agüero, Eds., ed: Springer Berlin Heidelberg, 2012, pp. 187-200. F. Zhu and H. Wang, “A modified ACO algorithm for virtual network embedding based on graph decomposition,” Computer Communications. D. Jian, H. Tao, W. Jian, H. Wenbo, L. Jiang, and L. Yunjie, “Virtual network embedding through node connectivity,” The Journal of China Universities of Posts and Telecommunications, vol. 22, pp. 1756, 2// 2015. A. Jarray and A. Karmouch, “Decomposition Approaches for Virtual Network Embedding With One-Shot Node and Link Mapping,” Networking, IEEE/ACM Transactions on, vol. PP, pp. 1-1, 2014. Z. Ye, L. Yong, J. Depeng, S. Li, and Z. Lieguang, “A virtual network embedding scheme with two-stage node mapping based on physical resource migration,” in Communication Systems (ICCS), 2010 IEEE International Conference on, 2010, pp. 761-766. L. Wenzhi, X. Yang, M. Shaowu, and T. Xiongyan, “Completing virtual network embedding all in one mathematical programming,” in Electronics, Communications and Control (ICECC), 2011 International Conference on, 2011, pp. 183-185. G. Xiujiao, Y. Hongfang, V. Anand, G. Sun, and D. Hao, “A new algorithm with coordinated node and link mapping for virtual [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] network embedding based on LP relaxation,” in Communications and Photonics Conference and Exhibition (ACP), 2010 Asia, 2010, pp. 152-153. W. de Paula Herman and J. R. de Almeida Amazonas, “Hop-byhop Routing Convergence Analysis Based on Paths Algebra,” in Electronics, Robotics and Automotive Mechanics Conference, 2007. CERMA 2007, 2007, pp. 9-14. Y. YoungSeok and B. A. Myers, “An exploratory study of backtracking strategies used by developers,” in Cooperative and Human Aspects of Software Engineering (CHASE), 2012 5th International Workshop on, 2012, pp. 138-144. A. Chmeiss, Sai, x, and L. s, “Constraint satisfaction problems : backtrack search revisited,” in Tools with Artificial Intelligence, 2004. ICTAI 2004. 16th IEEE International Conference on, 2004, pp. 252-257. K. T. Herley, A. Pietracaprina, and G. Pucci, “Deterministic parallel backtrack search,” Theoretical Computer Science, vol. 270, pp. 309324, 1/6/ 2002. R. Solis-Oba and G. Persiano, “Special Issue on Approximation and Online Algorithms,” Theory of Computing Systems, vol. 56, pp. 1-2, 2015/01/01 2015. A. Hakiri, A. Gokhale, P. Berthou, D. C. Schmidt, and T. Gayraud, “Software-Defined Networking: Challenges and research opportunities for Future Internet,” Computer Networks, vol. 75, Part A, pp. 453-471, 12/24/ 2014. Y. Xingbin, H. Shanguo, W. Shouyu, W. Di, G. Yuming, N. Xiaobing, et al., “Software defined virtualization platform based on doubleFlowVisors in multiple domain networks,” in Communications and Networking in China (CHINACOM), 2013 8th International ICST Conference on, 2013, pp. 776-780. R. Jain and S. Paul, “Network virtualization and software defined networking for cloud computing: a survey,” Communications Magazine, IEEE, vol. 51, pp. 24-31, 2013. K. Bakshi, “Considerations for Software Defined Networking (SDN): Approaches and use cases,” in Aerospace Conference, 2013 IEEE, 2013, pp. 1-9. Z. Boyang, G. Wen, Z. Shanshan, L. Xinjia, D. Zhong, W. Chunming, et al., “Virtual network mapping for multi-domain data plane in Software-Defined Networks,” in Wireless Communications, Vehicular Technology, Information Theory and Aerospace & Electronic Systems (VITAE), 2014 4th International Conference on, 2014, pp. 1-5. Y. Xin, I. Baldine, A. Mandal, C. Heermann, J. Chase, and A. Yumerefendi, “Embedding virtual topologies in networked clouds,” presented at the Proceedings of the 6th International Conference on Future Internet Technologies, Seoul, Republic of Korea, 2011. H. Wen, P. Tiwary, and T. Le-Ngoc, “Network Virtualization Technologies and Techniques,” in Wireless Virtualization, ed: Springer International Publishing, 2013, pp. 25-40. D. Meyer, “The Software-Defined-Networking Research Group,” Internet Computing, IEEE, vol. 17, pp. 84-87, 2013. S. Salsano, N. Blefari-Melazzi, A. Detti, G. Morabito, and L. Veltri, “Information centric networking over SDN and OpenFlow: Architectural aspects and experiments on the OFELIA testbed,” Computer Networks, vol. 57, pp. 3207-3221, 11/13/ 2013. M. Berman, J. S. Chase, L. Landweber, A. Nakao, M. Ott, D. Raychaudhuri, et al., “GENI: A federated testbed for innovative network experiments,” Computer Networks, vol. 61, pp. 5-23, 3/14/ 2014. M. H. Raza, S. C. Sivakumar, A. Nafarieh, and B. Robertson, “A Comparison of Software Defined Network (SDN) Implementation Strategies,” Procedia Computer Science, vol. 32, pp. 1050-1055, // 2014. R. Sherwood, G. Gibb, K.-K. Yap, G. Appenzeller, M. Casado, N. McKeown, et al., “FlowVisor: A Network Virtualization Layer,” Deutsche Telekom Inc. R&D Lab, Stanford University, Nicira Networks2009. D. Schwerdel, B. Reuther, T. Zinner, P. Müller, and P. Tran-Gia, “Future Internet research and experimentation: The G-Lab approach,” Computer Networks, vol. 61, pp. 102-117, 3/14/ 2014. J. F. Botero, X. Hesselbach, M. Duelli, D. Schlosser, A. Fischer, and H. de Meer, “Energy Efficient Virtual Network Embedding,” Communications Letters, IEEE, vol. 16, pp. 756-759, 2012. Universidad Católica de Pereira 58 [64] L. Nonde, T. E. H. El-Gorashi, and J. M. H. Elmirghani, “Green Virtual Network Embedding in optical OFDM cloud networks,” in Transparent Optical Networks (ICTON), 2014 16th International Conference on, 2014, pp. 1-5. [65] Y. Zilong, A. N. Patel, P. N. Ji, Q. Chunming, and W. Ting, “Virtual infrastructure embedding over software-defined flex-grid optical networks,” in Globecom Workshops (GC Wkshps), 2013 IEEE, 2013, pp. 1204-1209. [66] D. Simeonidou, R. Nejabati, and M. P. Channegowda, “Software defined optical networks technology and infrastructure: Enabling software-defined optical network operations,” in Optical Fiber Communication Conference and Exposition and the National Fiber Optic Engineers Conference (OFC/NFOEC), 2013, 2013, pp. 1-3. [67] M. F. Bari, R. Boutaba, R. Esteves, L. Z. Granville, M. Podlesny, M. G. Rabbani, et al., “Data Center Network Virtualization: A Survey,” Communications Surveys & Tutorials, IEEE, vol. 15, pp. 909-928, 2013. [68] S. Mehraghdam, M. Keller, and H. Karl, “Specifying and placing chains of virtual network functions,” in Cloud Networking (CloudNet), 2014 IEEE 3rd International Conference on, 2014, pp. 7-13. [69] M. R. C. Faizul Bari, Shihabur; Ahmed, Reaz; Boutaba, Raouf, “ On Orchestrating Virtualized Network Functions,” 2015. Néstor Álzate Mejía, se graduó como Ingeniero de Sistemas de la Universidad Cooperativa de Colombia. Obtuvo el título de Especialista en Telecomunicaciones de la Universidad Autónoma de Bucaramanga. Es aspirante a Magister en Ingeniería de Sistemas y Computación de la Universidad Tecnológica de Pereira. Actualmente es profesor de tiempo completo en la Universidad Católica de Pereira. Sus principales intereses de investigación son la Virtualización de Redes y las Redes Definidas por Software. José Roberto de A. Amazonas, graduado en ingeniería eléctrica de la Escuela Politécnica de la Universidad de São Paulo (EPUSP), Brasil, en 1979. Recibió el M.Sc., Ph.D. y grados postdoctorales de EPUSP en 1983, 1988 y 1996, respectivamente. Es profesor asociado del Departamento de Telecomunicaciones e Ingeniería de Control en EPUSP, donde está a cargo de la educación e investigación de comunicaciones ópticas y redes de comunicaciones de alta velocidad. Ocupó diversos cargos en universidades de Brasil y Europa. También ha dirigido la investigación en colaboración con varias empresas brasileñas, europeas y norteamericanas. Sus intereses de investigación se encuentran en el área de las comunicaciones ópticas, redes cableadas e inalámbricas, la calidad de servicio (QoS) y el aprendizaje a distancia. Juan Felipe Botero, es profesor en el Departamento de Ingeniería Electrónica y de Telecomunicaciones de la Universidad de Antioquia, Medellín, Colombia. En 2006, recibió su grado en Ingeniería de Sistemas por la Universidad de Antioquia. En 2008 y 2013 recibió sus grados de M.Sc. y Ph.D. en Ingeniería Telemática por la Universidad Politécnica de Cataluña, Barcelona, España. En 2013, se unió al Grupo de Investigación en Telecomunicaciones Aplicadas (GITA), que actualmente dirige. Sus principales intereses de investigación incluyen calidad de servicio, redes definidas por software, virtualización de redes, computación en la nube, optimización y asignación de recursos en diferentes arquitecturas de red. Entre Ciencia e Ingeniería 59 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 59 - 66 Medición del nivel de aprendizaje con dos escenarios de formación: uno tradicional y otro con TIC1 Measuring the level of learning with two formation scenarios: a traditional one, and another with ICTs L. E. Peláez y B. E. Osorio Recibido Junio 30 de 2015 – Aceptado Septiembre 23 de 2015 Resumen--- La educación, por obedecer a su naturaleza de ser un servicio social y público, está impregnada de muchas variables que construyen un contexto enmarañado de problemas y oportunidades para la mejora constante de la misma. Mejora a la que todos sus actores quieren llegar con el pretexto de asegurar poco a poco la calidad deseada. Precisamente, una de las principales dificultades que se presenta está relacionada con los resultados obtenidos a partir de los procesos de evaluación aplicados. En la mayoría de los casos, ni maestros ni estudiantes quedan conformes. Esto lleva a la búsqueda de nuevas estrategias de trabajo en colectivo que permitan crear un mejor ambiente educativo y que a la vez motiven a los educandos a apropiarse de los conocimientos que necesitan para enfrentarse a la realidad que el entorno les ofrece; y a los maestros a procurar mayor pertinencia de los procesos evaluativos con la realidad a la que pertenecen. Así, con esta provocación educativa, las Tecnologías de la Información y la Comunicación - TIC se vuelven un recurso El artículo es resultado parcial del proyecto de investigación “Medición del nivel de aprendizaje con dos escenarios de formación: uno tradicional y otro con tic. el caso del grado quinto de la institución educativa villa santana” de los grupos de investigación GIII y Lenguaje y Educación de la Universidad Católica de Pereira, de las facultades de Ciencias Básicas e Ingeniería y Ciencias Humanas Sociales y de la Educación. L.E. Peláez., docente de la Facultad de Ciencias Básicas e Ingeniería, Vicerrector Académico Universidad Católica de Pereira, Pereira (Colombia); email: [email protected] B.E. Osorio. Profesora de la Institución Educativa Villa Santana, Pereira (Colombia); email: [email protected] 1 significativo para darle un ingrediente extra al trabajo de clase, al aprendizaje, a la evaluación. Si ellas se han convertido en parte importante de la cotidianidad, entonces por qué no aprovecharlas para mejorar el acto educativo. Este trabajo, sistematiza la experiencia llevada a cabo en la Institución Educativa Villa Santana, la cual consiste en un trabajo de campo en el que se utilizaron algunas herramientas para el desarrollo de la temática sobre números fraccionarios en el grado quinto y el despliegue de algunas estrategias pedagógicas convencionales y no convencionales, para luego medir su impacto a partir de los resultados del proceso de evaluación. Palabras clave: TIC, pedagogía y evaluación haciendo uso de las TIC, innovación docente con las matemáticas. Abstract--- Education, in obedience to its nature of being a social and a public service, is related to a lot of variables, which generate a background of problems and opportunities for the continuous improvement of the process. Improvement that all the actors want to get based on the pretext of ensuring gradually the desired quality. By the way, one of the main difficulties found, are related to the results obtained from the evaluation processes applied. In most cases, neither teachers nor students are really satisfied. This leads to the search for new strategies of collective work that will create a better learning environment and at the same time motivate students to appropriate the knowledge they need to face the reality that the environment offers them; and teachers to ensure greater relevance of the evaluation processes with the reality to which they belong. Based on this educational challenge, the information and Universidad Católica de Pereira 60 communications technology - ICTs become significant for an extra ingredient to class work, learning, evaluation resource. If they have become an important part of everyday life, then why not use them to improve the educational act. This work systematizes the experience carried out in the Educational Institution Villa Santana. Experience is a field in which some tools for the development of the theme of fractional numbers in the fifth grade and the deployment of some conventional and unconventional teaching strategies were used, and then measure their impact from the results along the assessment process. Key words: ICTs, pedagogy and evaluation, using ICTs, teaching innovation through mathematics. U i. introducción no de los cuestionamientos más comunes relacionado con la educación tiene que ver con la manera convencional como se llevan a cabo las prácticas educativas, haciendo en muchas ocasiones que las aulas de clase y los espacios pedagógicos carezcan de esos ingredientes necesarios para cautivar y estimular el proceso de enseñanza. Es común encontrar que los estudiantes manifiesten su inconformidad y su descontento por los contenidos que se abordan en las clases, porque queda el interrogante sobre qué tan útil le puede ser en un futuro toda la información que están recibiendo. Partiendo de esa inquietud, es necesario contemplar que las instituciones educativas deben incluir dentro de su Proyecto Educativo Institucional todos los aspectos relacionados con el medio en el cual se desenvuelven, debido a que todas esas características hacen parte de la estructura educativa. Otro punto relevante que afecta directamente la educación hoy en día son los bajos resultados que se están obteniendo en las diferentes pruebas que verifican y comprueban de cierta forma la efectividad de los procesos académicos, como lo son las pruebas SABER, pero sería necesario revisar las relaciones que tienen que existir para que se obtengan mejores resultados, por eso se hace necesario tener en cuenta factores que interactúan entre sí, como son las aptitudes individuales, las condiciones familiares, la relación profesoralumno, alumno-compañeros, métodos de enseñanza entre otros [1], que son el complemento para un buen desarrollo del trabajo. Es por eso que “el proceso de la enseñanza se ocupa de las actividades que han de promover el aprendizaje para proporcionar la motivación y dirección necesarias, así como un control y orientación eficaces” [2] que se encarguen no solo de construir conocimiento, sino también de relacionarlo con el entorno que lo rodea haciendo que haya una aplicabilidad entre lo que aprende y lo que puede hacer con ello. Entre Ciencia e Ingeniería Por esta razón, queda la pregunta, si todo lo que se llama innovación lo es y si cumple con los parámetros necesarios para serlo, o si por el contrario, estamos cayendo en el facilismo de aceptar cualquier propuesta sin evaluarla y sin comprobar sus resultados. Entonces las TIC se convierten en un recurso innovador ya que “influyen en los aspectos socioculturales del ser humano permitiéndole crear nuevas visiones de mundo a partir de la interactividad que ofrecen estas en el contexto” [3]; esto hace que se replanteen nuevas formas de trabajo, permitiendo que se visionen otro tipo de metodologías más productivas por el nivel de apropiación que tendrían los estudiantes del conocimiento. Se hace necesario reconocer que “una de las motivaciones para aprovechar las TIC en la educación, es su capacidad para permitir el intercambio rápido, fácil y eficiente de información” [4] haciendo que las clases sean más acordes con las necesidades actuales. Uno de los modelos más acordes para llevar a cabo en el contexto educativo sería el b-learning, que incluye una parte virtual y otra presencial siendo una forma de trabajo que favorece el proceso formativo de los estudiantes, pero es necesario que la metodología de Enseñanza - Aprendizaje en la básica primaria también comience a contemplar la tecnología como referente de trabajo y recurso de clase, siendo un estímulo para afianzar el conocimiento y provocar una visión activa y crítica frente a la misma. De esta forma, si se tiene en cuenta que cada elemento relacionado con las prácticas pedagógicas busca un proceso de resignificación de las TIC, es posible entonces refutar afirmaciones como la de Pineda López et all cuando plantean “un recurso y componente indispensable en el aula, no sólo para aprender a usar las herramientas tecnológicas, sino también para apoyar las distintas áreas obligatorias, impulsando así procesos de mejoramiento de la educación” [5]; pues una cosa es utilizarlas -las TIC- como soporte al acompañamiento pedagógico, y otra considerarlas indispensables para la acción educativa. Es importante plantear que se tiene una visión, posiblemente equivocada sobre el uso adecuado de las TIC en las instituciones educativas, porque aunque se le consulta a directivos y docentes, sobre dicha situación, estos plantean que sí las utilizan, pero esa respuesta es más por el uso genérico de recursos informáticos, que por un uso enfocado mediante un análisis profundo que lleve a reconocer que estas herramientas permiten transformar los métodos educativos siendo esto el mayor beneficio que podrían brindar a los procesos académicos [6]. Pero es necesario contemplar que no basta con buscar nuevas estrategias para cambiar la actitud de los estudiantes frente al aprendizaje, sino que el papel del docente también es importante, por eso debe renovarse, para que desde una nueva visión, se replantee la función y el propósito 61 que encierra cada uno de los elementos que comprende el proceso de enseñanza. las relaciones entre ellos y las operaciones básicas (suma, resta, multiplicación y división). Ahora bien, es indispensable que los docentes comiencen a prepararse y a apropiarse de nuevas herramientas que se ajusten a las necesidades actuales que la sociedad crea diariamente, siendo esto “esencial para elevar el rendimiento académico de los estudiantes y así posibilitar que posean las condiciones indispensables para afrontar los retos del contexto actual y futuro” [7] De hecho, deben implementarse en el aula de clase diversos elementos que le permitan al estudiante concebir de manera diferente los espacios educativos y las TIC se conviertan en un recurso muy llamativo, porque les permite tener un contacto directo con la información y crear una interacción con su propio aprendizaje. Aunque no se puede desconocer que esta infraestructura tecnológica aún no hace parte de todas las instituciones educativas, es de resaltar que el objetivo del Ministerio de Educación Nacional es el de “garantizar un contexto favorable para el aprovechamiento de las TIC y los medios digitales en la escuela” [8]. Se hace una revisión de distintos referentes bibliográficos como los estándares básicos en el aérea de matemáticas [10] y algunos libros de trabajo correspondientes al grado quinto, que proporcionan la información necesaria para hacer una sustentación teórica que contribuya a direccionar el proceso y a estructurar un escenario que permita la validación de la experiencia. Por todo lo anterior, se hace necesario empezar a generar proyectos que busquen caracterizar y sistematizar la forma como las TIC se están utilizando dentro del aula de clase y la evaluación de los resultados de estos usos. Este proyecto, en particular, da cuenta del trabajo de campo llevado a cabo en la IE Villa Santana con los estudiantes de grado 5 de primaria. II. Metodología El proyecto se desarrolla a partir del planteamiento del problema que surge de aquellas situaciones cotidianas que se presentan en el aula de clase y que afectan de alguna manera el proceso académico. Como objetivo general se busca medir y analizar comparativamente el rendimiento académico de los estudiantes del grado 5 (A y D) de básica primaria de la Institución Educativa Villa Santana en el área de matemáticas, mediante la implementación de estrategias de formación con diferentes estímulos: clase convencional y clase con el apoyo de las Tecnologías de Información y la Comunicación (TIC) La población sobre la que se lleva a cabo el trabajo de campo son los estudiantes del grado 5 de básica primaria de la jornada de la mañana de la Institución Educativa Villa Santana de la ciudad de Pereira (grado 5A con 33 estudiantes -15 niños y 18 niñas- como grupo control; y al grado 5D con 32 estudiantes -15 niños y 17 niñas- como grupo experimental, “donde se toma en cuenta la similitud y la diferencia entre dos o más grupos de personas” [9] para luego describir las características de dicha experiencia. Seguidamente, se estructura una propuesta metodológica que busca caracterizar el escenario donde ocurre dicha problemática, en este caso consiste en realizar un trabajo de campo con los estudiantes de grado 5 de la básica primaria en el área de matemáticas, implementando diferentes estrategias metodologías: una convencional y otra no convencional (léase con intención de innovación pedagógica) apoyada en las TIC, para luego medir su impacto y comparar los resultados. El desarrollo del proyecto inicia con una medición antes (pre-test) para identificar el punto de partida, luego se hace la aplicación de la propuesta con la selección de grupos homogéneos y nuevamente se hacen las mediciones al terminar (pos-test) para poder realizar las comparaciones respectivas [11] y de allí sacar las conclusiones finales. Durante el transcurso de la experiencia se hace un seguimiento por parte de las docentes por medio de un formato, donde se reconocen ciertos comportamientos de los estudiantes de manera generalizada y que tienen gran relevancia en el momento de valorar la efectividad de la propuesta, estos aspectos están relacionados con la motivación, la atención y la actitud que muestran frente al desarrollo de la temática. III. Caracterizacion de La Propuesta La propuesta se basa en la utilización de las TIC como estrategia práctica de clase, por medio del uso de herramientas informáticas disponibles en el mundo del software libre, como: mundo primaria, ciberkids, accedetic. es, viva juegos, entre otros, para este caso se implementan como una estrategia pedagógica –actuando como OVAS: Objetos Virtuales de Aprendizaje-, organizándolas en 16 OVAS distribuidas en 8 sesiones de trabajo, relacionadas con las diferentes temáticas sobre números fraccionarios. Las clases están compuestas de una parte explicativa del concepto y cuentan con diferentes ejercicios prácticos que afianzan los conocimientos y les permite apropiarse de los mismos. Las Tablas I y II muestran un resumen de la información que se identificó en casa clase. La temática a abordar está enfocada al área de matemáticas relacionada con los números fraccionarios. Se incluyen conceptos relacionados con la definición, la representación, Universidad Católica de Pereira 62 tabla i. información identificada durante las clases del grupo experimental es necesario presionar al estudiante para que conserve la disposición por el trabajo que se encuentran realizando. Durante la ejecución de la propuesta también son importantes las conductas de las personas sometidas al estudio, en este caso las docentes, porque sus opiniones y comentarios son válidos en el momento de interpretar los resultados y de evaluar las prácticas realizadas [9]. Para ello se estructura un formato de seguimiento que permita registrar los comportamientos y actitudes del grupo con relación al trabajo y además reconocer las manifestaciones y observaciones que plantea el docente con relación a la experiencia en general. Es decir, esta intención de medición se convierte en un primer intento para conocer variables actitudinales como la motivación, la atención, la actitud, en el orden cualitativo. tabla ii. información identificada durante las clases del grupo convencional IV. Resultados. Al momento de iniciar las prácticas se hace una inducción a los estudiantes sobre el trabajo a realizar, se socializan las características de los ejercicios y los propósitos que se pretenden alcanzar. Se plantean las reglas de juego teniendo en cuenta el trabajo individual y en equipo que permite hacer este tipo de actividades. El tiempo para la aplicación de las actividades prácticas es de tres semanas, en las cuales se trabaja con una periodicidad de tres días a la semana con una intensidad de dos horas de clase. Dentro de la programación estaban adicionalmente dos sesiones con el grupo experimental, en las cuales se realizaba una ambientación y familiarización con la herramienta, en este caso el computador. La temática fue igual en ambos grupos, para el grupo experimental se utilizaban en promedio dos OVAS por clase, mientras que en el grupo control se suministraban los ejercicios de forma impresa. Dentro de las generalidades se observa que los estudiantes demuestran, en la metodología convencional, una actitud que se combina entre neutral y negativa como se puede evidenciar en la Tabla 2., mientras que en la metodología TIC la actitud es positiva debido a que las actividades permiten cautivarlos durante el desarrollo de las mismas por ser más novedosas y llamativas, como se aprecia en la Tabla 2. Los niveles de atención también se ven alterados positivamente en el caso del uso de las TIC; se infiere desde el trabajo que estos niveles se identifican porque las herramientas permiten una atención espontánea que parte de un interés existente y no requiere de una concentración adicional en ocasiones forzada, en cambio en la convencional Entre Ciencia e Ingeniería Los OVA están planteados de manera que se va haciendo un acompañamiento por los puntos de trabajo revisando que se vaya avanzando progresivamente, las actividades permiten ir reconociendo la efectividad con la que se resuelven, debido a que sólo permite avanzar al siguiente punto si lo hace correctamente. Luego como estrategia de trabajo de clase se propicia un espacio de competencia entre grupos de estudiantes para afianzar los conocimientos sobre el tema. Todos estos elementos de trabajo hacen parte del proceso educativo, es necesaria una estructuración de los programas académicos de modo que puedan ofrecer mayores y mejores resultados, porque si son utilizados de manera acertada permitirían un avance más significativo en el alcance de las competencias de los estudiantes. Después de aplicar los instrumentos en las clases programadas, se lleva a cabo la reflexión comparativa de los resultados obtenidos en cada uno de los grupos tomando como base los indicadores de desempeño planteados, consiguiendo los datos que se resumen en las Tablas III y IV y en las Fig. 1 y 2 respectivamente. 2 Nota del Autor: Si el lector quiere conocer en detalle la metodología y los instrumentos de medición utilizados, puede contactar a los autores al correo [email protected]; pues la estructura de este documento exige respetar las políticas de la publicación que no permiten relacionar estos formatos. 63 GRUPO 1: EXPERIMENTAL tabla iii. resultados pre-test y post-test del grupo experimental observa que hubo un mayor avance en el grupo experimental ya que alcanza un porcentaje del 31% (10 estudiantes) frente al 24% obtenido por el grupo control (8 estudiantes); se resalta igualmente que el grupo experimental alcanzó un 13% (4 estudiantes) en el desempeño alto, mientras que el grupo control no presentó ningún estudiante en esta categoría. Se debe mencionar que durante el trascurso de la programación surgieron algunas dificultades con la puesta en práctica de las actividades, porque la conexión a internet con la que cuenta la institución educativa no es la mejor y en algunas ocasiones estando en clase, se debía modificar la forma de trabajo, organizándolos de forma diferente como en grupos más grandes o haciendo otras actividades prácticas relacionadas con la temática. Fig. 1. Resultados pre-test y post-test del grupo experimental. GRUPO 2: CONTROL tabla iv. resultados pre-test y post-test del grupo control Esto último, resulta clave al momento de medir las actividades, caracterizar al grupo y controlar los resultados; pues los estudiantes van perdiendo motivación de trabajar con las herramientas multimediales cuando los aspectos relacionados con hardware y conexión no pueden ser controlados por ellos mismos para que funcionen adecuadamente. V. Formato De Seguimiento Los Profesores encargados de cada grupo en el trabajo de campo, tuvieron la labor de diligenciar las actitudes que reportaban los estudiantes mientras se desarrollaban las clases. La Tabla V muestra las conclusiones de los Profesores al respecto. tabla v. aptitudes observadas por los grupos de estudiantes Respecto al grupo experimental, se resalta que durante el proceso la motivación fue constante en el momento de realizar los ejercicios. Los estudiantes se mostraban participativos e interesados por resolver las diferentes actividades, además se generaba la solicitud para que se dejaran actividades para la casa, llevándolos a hacer consultas externas fomentando con ello su propio auto-aprendizaje. Fig. 2. Resultados pre-test y post-test del grupo control. Los grupos homogéneos fueron sometidos al proceso con profesores con experiencias y estilos similares, de tal manera que estos factores no se convirtieran en elementos de impacto para concluir alrededor de lo bueno o malo de cada proceso de enseñanza-aprendizaje. En este sentido, los resultados permiten evidenciar que ambos grupos obtuvieron desempeños bajos como resultado en el pre-test, pero se Otra de las situaciones que llamó la atención fue la forma en que competían entre ellos para resolver las actividades, se buscaban y se explicaban o corregían sin ningún tipo de pelea o reacción incomoda, por el contrario se ayudaban sin necesidad de que la docente hiciera este tipo de solicitudes. La interacción de los estudiantes con el recurso, en este caso el computador, propiciaba un ambiente divertido, que hacía de la clase un espacio ameno y agradable donde la temática se convertía en un ingrediente positivo y no en una carga dentro de la clase. Universidad Católica de Pereira 64 Otra de las características positivas que brinda el instrumento basado en las TIC, en este caso los OVA, es que permite un trabajo de retroalimentación constante, debido a que durante la exploración y desarrollo de las actividades se va revisando el proceso, es decir, hago el ejercicio y me indica si quedó bien o no en el momento, sin tener que esperar hasta que se entreguen los resultados quedando así dudas e inquietudes frente a la temática. Respecto al grupo control se evidenció poco entusiasmo de los estudiantes en el momento de resolver los ejercicios prácticos, la docente manifestaba en el diligenciamiento de los formatos que algunos ni terminaban de resolver las actividades asignadas y que se distraían con facilidad tanto en el momento explicativo como en el de la ejecución de los talleres. Esto a pesar que las estrategias de trabajo iban desde la elaboración de gráficas, la realización de ejercicios prácticos de forma individual y grupal y la socialización general de los resultados. La participación durante las explicaciones normalmente se da por parte de los mismos estudiantes, precisamente aquellos que siempre lo hacen y que cuentan con una motivación extra, es decir que manifiestan un interés constante por ocupar un buen puesto o por agradar a sus padres o acudientes presentando un buen comportamiento en el aula. Cuando se realizó el trabajo en clase con las primeras temáticas acerca de la definición, representación de fracciones, fracciones equivalentes, donde se explica por medio de gráficas y secciones coloreadas, hubo una buena actitud por parte de los estudiantes para desarrollar los ejercicios, pero cuando el programa fue avanzando y las actividades eran más numéricas, sin ese factor extra de color y llamativo visual, disminuyó el interés y la disposición hacia ellas. VI. Discusion Es necesario reconocer que las Tecnologías de Información y Comunicación, en este caso como tecnología educativa, permiten ofrecer grandes posibilidades para mejorar los procesos de enseñanza. Empero, se debe entender que un software educativo por sí solo no puede lograrlo, necesita de una integración curricular que le garantice las condiciones necesarias para lograr su propósito; así, es indispensable contemplar otros factores de gran valor, en este caso la conexión a internet, los equipos que se tienen, la habilidad del Profesor para la manipulación y explicación de la herramienta, es decir, elementos que aunque no eran parte del proyecto, llegaron a incidir en el trabajo de campo; en esta línea, la disponibilidad de los espacios, etc. siendo elementos relevantes para conseguir los resultados esperados.[12] Lo anterior permite inferir que la educación convencional en la cual los estudiantes han estado recibiendo dichos Entre Ciencia e Ingeniería conocimientos debe ser evaluada en su pertinencia, dado que no les ha permitido realizar verdaderos procesos de significación, y más cuando las condiciones sociales hacen tanto énfasis en las diferencias que existen entre algunos grupos sociales. En este sentido, Ausubel [13] sostiene que la experiencia humana no solo implica pensamiento, sino también afectividad y únicamente cuando se consideran en conjunto se capacita al individuo para enriquecer el significado de su experiencia, es por eso que se hace necesario buscar otros elementos que permitan establecer mayores relaciones entre la sociedad y el conocimiento. Uno de los propósitos de la educación hoy en día con relación a los estudiantes se debería basar en permitirles “interactuar y avanzar a su propio ritmo adquiriendo la confianza necesaria para investigar, innovar, argumentar y desarrollar la capacidad matemática que todos tenemos” [14] esto nos lleva a pensar que el adecuado uso de las TIC se convierte en un recurso metodológico y didáctico que contribuye a resolver dicha situación, debido a las característica que presenta en su desarrollo de las actividades de clase, no sólo porque les permite resolverlas según sus capacidades, sino que también le añade ese ingrediente adicional llamado motivación que es tan indispensable en el ámbito educativo. Lo anterior exige también un maestro más preparado para explotar las TIC como un recurso propio del desarrollo pedagógico. En la línea de Peláez [15] los dispositivos móviles y las demás tecnologías similares se han vuelto parte inalienable del estudiante y deberían aprovecharse pedagógicamente, no de manera sancionatoria. Por otro lado se debe reconocer que nuestros estudiantes tiene una visión diferente de la realidad en la que viven y es completamente indispensable aprovechar los beneficios que nos brindan las TIC para poder hacer ese tipo de análisis [3] porque si permitimos que haya una interacción entre el contexto y la información que se posee, se podrían obtener mejores resultados y más acordes con los intereses de nuestra comunidad. Un elemento relevante para el acto educativo –sobre todo por parte de los Maestros- es el momento en que se debe determinar qué estrategia metodológica es más acorde para trabajar una temática en el aula y con las TIC es necesario “ponernos en el lugar del estudiante” [16] porque al fin y al cabo, son ellos los que deben asimilar y comprender lo que se les quiere transmitir, se debe buscar la forma para que no sólo sea transmitir y repetir un conocimiento sino que se utilice para resolver otras situaciones y pueda sacar sus propias conclusiones a partir de la experiencia, hecho que le permite apropiarse del mismo. VII. Conclusiones Un punto significativo y de gran relevancia se centra en la efectividad que pueden presentar las TIC como 65 herramienta de trabajo, porque si a pesar del corto tiempo en que se aplicó la propuesta, se alcanzaron, de alguna manera, resultados positivos sería muy interesante formular un seguimiento al rendimiento de un grupo escolar con un tiempo más largo de aplicación y que permita realizar una transversalización de diferentes temáticas por medio de herramientas multimediales, además que contribuyan a fomentar un desarrollo individual dependiendo de las características y necesidades de cada uno de los estudiantes. Igualmente relevante será reconocer que este tipo de propuestas que implementan nuevas estrategias de trabajo, mejoran el interés y la motivación por las actividades prácticas de clase, en este caso herramientas multimediales, que ofrecen una dinámica diferente donde se produce una interacción con la información que se quiere impartir, dando la posibilidad de realizar unas prácticas más lúdicas que favorezcan los ritmos de aprendizaje. Es necesario que los Profesores exploren estrategias pedagógicas que, con el uso de las TIC o sin el uso de ellas, estén acordes con la realidad y ofrezcan una respuesta pertinente al momento educativo y a la población para quien se prepara la enseñanza. Esto es, brindar un ambiente de aprendizaje acorde con sus características, de forma que pueda estar a la par con todo aquello que hace parte de su entorno y que le pueda ofrecer mayores posibilidades en una vida productiva a futuro. En la Institución Educativa Villa Santana, el área de matemáticas se ha convertido en el talón de Aquiles de muchos de los estudiantes; por sus manifestaciones, es evidente la fobia que le muestran a dicha área y por tal razón su desinterés por ella, es necesario que se reconozca cual es su importancia y sus beneficios para el desarrollo del pensamiento matemático, indispensable para tener un análisis coherente en cualquier situación cotidiana y además que las estrategias que se utilicen para el trabajo en clase se basen en la experimentación, en la ejemplificación y en su aplicabilidad, por eso las TIC representan un buen recurso de trabajo permitiendo involucrar los elementos necesarios para crear un ambiente agradable de aprendizaje. La experiencia con relación al diseño y estructuración de los OVA fue muy enriquecedora porque ahí se ven reflejados muchos de los conocimientos recibidos durante la especialización, demostrando una vez más que es indispensable estar en constante aprendizaje para beneficiar nuestras prácticas educativas y ampliar la visión que tenemos por medio del conocimiento. Ha sido una experiencia limitada con un escenario para el trabajo de campo reducido (en temática, población objetivo y tiempo de aplicación); pero la práctica permite concluir que los estudiantes aprenden más y mejor cuando se les saca del contexto tradicional de la clase magistral y el taller escrito en hojas. Las TIC se denotan como un elemento propio de diversificación en la estrategia pedagógica mediante el despliegue de didácticas apoyadas en elementos más allá de los tradicionalmente aplicados por los maestros: tablero, lecturas, ejercicios en cuaderno, etc. Sin embargo, se debe reconocer que también hay otros factores que influyen durante el proceso. VIII. Recomendaciones: Futuras Lineas De Trabajo Este trabajo deja como futuras líneas de exploración o de investigación, la posibilidad de aplicar la metodología –quizá mejorada inclusive-, en grupos experimentales más amplios con otras temáticas y con mejores espacios de tiempo para enriquecer las conclusiones; que además permitirán que poco a poco, los profesores empiecen a concientizarse de la responsabilidad que tienen dentro del proceso de enseñanzaaprendizaje. Buscar alternativas diferentes que ayuden a mejorar el rendimiento académico de los estudiantes teniendo en cuenta sus capacidades y características. Por eso las TIC se convierten en una buena herramienta para complementar una estrategia metodológica atinada, pertinente, que cuente con los elementos necesarios para el alcance de las competencias en cualquier área del conocimiento. También, las instituciones educativas deben contar con ciertas condiciones en su infraestructura que permitan garantizar que la tecnología llegue a las aulas de clase, algunos de esos recursos como el computador, internet, herramientas multimediales, OVAs, videos, ofrecen grandes beneficios a las prácticas pedagógicas porque involucran diferentes elementos en su programación que contribuyen al mejoramiento del proceso educativo en general. Siempre y cuando se tenga un fin educativo que apunte a llevar al estudiante a tener un espacio de reflexión y producción, con una estructura definida que contenga una secuencia de introducción, contenidos y evaluación y que no se convierta solamente en una serie de contenidos digitales. Referencias Rodríguez Diéguez, J. L., & Gallego Rico, S. (1992). Lenguaje y Rendimiento Académico. Salamanca: Ediciones Universidad de Salamanca [2 Kelly, W. A. (1982). Psicología de la Educación (Septima Edición ed.). Ediciones Morata. [3] Duque Montoya, J. C., Mamián Mamián, A., & Tapasco Devia, S. (2012). Uso de las tic en la práctica pedagógica de los estudiantes de la Licenciatura en Comunicación e Informática Educativas de la Universidad Tecnológica de Pereira . Pereira. [4] Granados, J. C., Portilla, D., & Torres, M. P. (Octubre-Diciembre de 2009). Aprovechando las TIC para la educación y la inclusión social. Revista Colombiana de Telecomunicaciones , 16, 66. [5 Pineda López, L. F., Arango Morales, M. V., & Bueno Vergara, C. (2013). La Incorporación de las TIC para mejorar la comprensión lectora de los estudiante de grado primero C, de la institución educativa Remigio Antonio Cañarte, sede providencia, de la ciudad de Pereira. 12. [6] Mena, D. L., Salamandra, M., & Linares, B. (2014). Impacto del uso e implementación de las TIC en los procesos formativos en el departamento de Risaralda. Textos y Sentidos , 121. [1] Universidad Católica de Pereira 66 [7] Tobón Tobón, S., Pimienta Prieto, J. H., & García Fraile, J. A. (2010). Secuencias didácticas. Aprendizaje y evaluación de competencia. México: Pearson Educación de México. [8] Valencia Cobos, J., & Camargo Ariza, K. (2013). Estrategias para el fortalecimiento de las TIC en las escuelas en Colombia. Colombia Digital, 33. [9] Carvajal Sánchez, J. (2012). Iniciación a la Investigación. Tunja: Ediciones Juan de Castellanos [10] Schmidt Q., M. (2006). Estándares Básicos de Competencias en Lenguaje, Matemáticas, Ciencias y Ciudadanas. Guía sobre lo que los estudiantes deben saber y saber hacer con lo que aprenden. Colombia: Ministerio de Educación Nacional. [11] Briones, G. (1996). Metodología de la investigación cuantitativa en las ciencias sociales . Bogotá: Impresores Ltda. [12] Pizarro, R. A., & Ascheri, M. E. (2009). Diseño e Implementacion de un Software Educativo en Cálculo Numérico. Revista Iberoamericana de Tecnología en Educación y Educación en Tecnología. [13] Ausubel, D. (1983). Teoria del Aprendizaje Significativo. Fascículos de CEIF. [14] Badillo Medina, G. B., & Rodriguez Molina, J. F. (2010). Las TICs “Educación Digital” como herramienta pedagógica en función del mejoramiento del aprendizaje de las matemáticas. [15] Peláez, L. E. (2009). La importancia de la apropiación de las TICS en el entorno educativo. Pereira. [16] Rojas Bonilla, G. F. (2011). Uso Adecuado De Estrategias Metodológicas en el aula (Vol. 15).Investigación Educativa. Luis Eduardo Peláez Valencia, actualmente se desempeña como Vicerrector académico de la Universidad Católica de Pereira. Magister en Ingeniería del software, Master en Ingeniería, Especialista en propiedad intelectual: propiedad industrial, derechos de autor y nuevas tecnologías. Ingeniero de sistemas. Investigador del Grupo de Investigación en Innovación e ingeniería (GIII) de la Universidad Católica de Pereira. Asesor de la Comisión Nacional de Aseguramiento de la Calidad de la Educación Superior CONACES 2013-2015. Beatriz Eugenia Osorio Patiño, docente de básica Primaria en el municipio de Pereira, licenciada en Educación Física, Recreación y Deporte, Especialista en Lúdica Educativa. Especialista en Edumática de la Universidad Católica de Pereira. Entre Ciencia e Ingeniería 67 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 67 - 74 Una revisión del estado del arte de la medida de la nanodureza usando el Microscopio de Fuerza Atómica1 A review of the state of the art when measuring the nanohardness using the Atomic Force Microscope D. F. Arias, D. Pérez y J.M. González Recibido Junio 30 de 2015 – Aceptado Septiembre 23 de 2015 Resumen— En la nanociencia y en la nanotecnología, una de las herramientas más poderosas es el microscopio de fuerza atómica (AFM siglas en inglés). Instrumento que sirve para caracterizar los materiales a nivel superficial. Dentro de esas características está evaluar la dureza a escala manometría (nanodureza), utilizando el método de nanoindentación en el modo de espectroscopia. En materiales como las películas delgadas en los que sus espesores son del orden de decenas de nanómetros de espesor, el equipo adecuado para medir la dureza es el AFM. En este artículo se pretende realizar una primera aproximación a algunos modelos usados para evaluar la dureza usando el AFM a partir del modelo elástico. Abstract— in nanotechnology, one of the powerful tools is the atomic force microscope (AFM). Instrument used to characterize materials superficially. Nanoscale hardness (nanohardness) using nanoindentation method spectroscopy mode is considered when evaluating these characteristics. The suitable equipment to measure the hardness in materials such as thin films, with thicknesses on the order of tens of nanometers is the AFM. In this article, the authors propose a first approach to some models used to evaluate the hardness, using the AFM, based on the elastic model. Key words— nanohadness, atomic force microscopy, Oliver Pharr model, spectroscopy of forces. Palabras clave—nanodureza, microscopio de fuerza atómica, modelo de Oliver Pharr, espectroscopia de fuerzas. E 1 Producto derivado del proyecto de investigación “Estudio Comparativo de medidas de nanodureza usando las técnicas de AFM y nanodurómetro para diferentes diseños de películas delgadas”. Presentado por el Grupo de Investigación GEMA, de la Facultad de Ciencias Básicas e Ingeniería, avalado por el centro de innovación e investigación de la Universidad Católica de Pereira. D. F. Arias, docente de la Facultad de Ciencias Básicas e Ingeniería de la universidad Católica de Pereira, Pereira (Colombia); email: diego.arias@ ucp.edu.co. D. Pérez, joven investigador COLCIENCIAS, Universidad Tecnologice de Pereira, Pereira (Colombia); email: [email protected] J.M. González, Líder de la línea de Biotecnología y Nanotecnología del Tecnoparque SENA-Nodo Cali, Cali (Colombia); email: juanmgonzalezc@ gmail.com I. Introducción n una conferencia impartida en 1959, uno de los grandes físicos del siglo pasado, Richard Feynman, predijo que “hay mucho espacio en la parte inferior” (el título original de la conferencia fue “There’s plenty of room at the bottom”) y auguraba una gran cantidad de nuevos descubrimientos si se pudiera fabricar materiales de dimensiones atómicas o moleculares. Esta predicción se ha cumplido en su totalidad en estos últimos 20 años, y gracias a esos descubrimientos es que una de las áreas de la investigación que ha tenido una gigantesca importancia es la Nanotecnología. Dentro de esta área se encuentra la ciencia de las películas delgadas, materiales que se depositan en superficies a las que se les quiere mejorar su desempeño desde el punto de vista mecánico, tribológico, magnético, óptico, electrónico entre otros. Debido a la baja dimensionalidad Universidad Católica de Pereira 68 (espesores menores a 1 µm) de estos materiales su física es diferente a su correspondiente en bloque. Cuando se va estudiar el desempeño mecánico de las películas delgadas uno de los instrumentos adecuados es el microscopio de fuerza atómica (AFM) en su modo de espectroscopia. Dentro del estudio mecánico de los recubrimientos está la determinación de la dureza. Ya que para evaluar la dureza, se necesita que las cargas sean del orden de nanonewton (nN), asegurando que las lecturas correspondan a la película y no al sustrato. La idea de la nanoindentación surge de la necesidad de medir las propiedades mecánicas de volúmenes muy pequeños de materiales. En principio, si la punta es muy aguda, el volumen del material que se prueba se puede hacer arbitrariamente pequeño. Sin embargo, en este caso, es muy difícil determinar el área de indentación. La dureza de hecho es definida como la relación entre la máxima carga aplicada (Pmax) y el área proyectada de la impresión de indentación (Ap). Para evaluar esta área, varios métodos de detección de profundidad de indentación (DSI) han sido desarrollados [1-3], los cuales permiten, de manera indirecta, medir el Ap y evaluar la dureza sin la imagen de la huella de la indentación. La mayoría de los estudios recientes concernientes a la nanodureza de materiales son basados en el análisis de curvas desplazamiento-carga usando el método de Oliver y Pharr (O-P) [2-5]. En el ensayo de indentación, la dureza y el módulo elástico dependen fuertemente del área de contacto del material-indentador en el momento de carga. Sin embargo, muchos de los comportamientos elástico-plásticos, tales como recuperación elástica durante la descarga y perfiles de apilamiento o hundimiento durante la indentación afectan la determinación de la dureza y el módulo elástico. Por lo tanto, el AFM es un método importante para suministrar un conocimiento exacto de la impresión de la indentación especialmente si se presentan deformaciones plásticas, que llevan a errores en la determinación del área de contacto [6]. El experimento de nanoindentación se lleva a cabo mediante el empleo de un indentador que ejerce presión sobre la superficie del material de estudio. Los datos experimentales de desplazamiento contra carga aplicada son almacenados a través de un actuador y un sensor. Puesto que las propiedades mecánicas del material constituyente del indentador son conocidas, la dureza de indentación y el módulo reducido del material de estudio pueden ser obtenidos a partir del comportamiento de descarga y la teoría de mecánica de contacto. La mecánica de contacto fue la primera que originó la investigación del comportamiento de contacto entre dos cuerpos distintos por Boussinesq [7] y Herz [8, 9]. Sneddon [10] desarrolló una teoría para predecir el comportamiento de contacto para cualquier golpe con un sólido de revolución de una función suave. Él descubrió que la relación entre desplazamiento y carga se puede predecir a través de una función de ley de potencias y ha sido usada en el cálculo del módulo reducido en el ensayo de nanoindentación. Entre Ciencia e Ingeniería Debido a que la huella residual del ensayo de indentación es bastante pequeña, el área proyectada es difícil de ser observada directamente a través de un microscopio óptico. Como solución a esta limitación, O-P [2] propuso la función de área para describir aproximadamente la relación entre el área proyectada y la profundidad de contacto. El mérito de la nanoindentación es la capacidad de medir las propiedades mecánicas de películas delgadas comparadas con los ensayos de indentación tradicional. La organización internacional de estándares (ISO, siglas en inglés) [11-13] publicó la guía para el ensayo de indentación. Se recomendó que el total del desplazamiento deber ser diez veces menor que el espesor de la película delgada para evitar la influencia del sustrato en los resultados del ensayo. Por otra parte cuando el desplazamiento total se vuelve superficial, el área proyectada calculada desde la función de área de O-P se incrementará o fluctuará. Sin embargo, este fenómeno no existe en la práctica [14]. El método de nanoindentación usando AFM es bien conocido para la evaluación de propiedades desde películas delgadas, polímeros y tejidos orgánicos[15-17]. En los últimos años se han hecho esfuerzos para medir cuantitativamente la dureza de las películas delgadas usando nanoindentación por medio del AFM [18-25]. Desafortunadamente, muchos de estos reportes presentan incertidumbres debido a la falta de calibración de sus componentes fundamentales, los valores de la medida de la dureza no son uniformes de acuerdo a la profundidad de indentación y están lejos de los valores reales [26]. Entre las incertidumbres, dos factores son principalmente considerados como parámetros de compensación para la dureza cuantitativa evaluado por la nanoindentación con AFM. Uno es que la función teórica de la geometría de la punta, representando la relación entre el área proyectada de contacto y la profundidad de indentación, es diferente con la geometría real de la punta. Una punta cúbica es usada en la nanoindentación con AFM. El área proyectada de contacto es generalmente obtenida por el cálculo de la geometría teórica de la punta como una función de la profundidad de indentación, (1) Donde Ap es el área proyectada de contacto de la punta y hc es la profundidad de indentación. Esta función teórica es adecuada únicamente para formas cúbicas ideales porque las formas reales de las puntas son diferentes del modelo ideal. Generalmente se usan puntas cúbicas con radios de unas pocas decenas de nanómetros en el ápice. Esta forma redondeada del ápice de la punta induce a errores a profundidades de indentación por debajo de 100 nm. El otro es la no uniformidad de los ejes perpendiculares de carga que surge de la deflexión del cantiléver durante la indentación. Esta no uniformidad en los ejes de carga en la muestra, hace formas asimétricas en la superficie de la misma. Una forma de la superficie deformada es otro factor de error comparado con el área de contacto proyectada calculada [26]. 69 La nanoindentación usando el AFM [27, 28], permite medir directamente el área proyectada de la huella de indentación, logrando suministrar características interesantes como imagen correcta de la indentación después de la aplicación de la carga. Es posible reconocer la morfología exacta de la impresión de la indentación con alta resolución a nanoscala, midiendo el valor actual del área Ap. Esta aproximación permite considerar la presencia de apilamiento de material, el cual es el principal tema para la nanoindentación a nanoescala [29, 30], que es usualmente despreciada en el modelo de Oliver y Pharr y lleva a una sobreestimación en el valor de la dureza [4, 31, 32]. De acuerdo a la teoría de contacto elástico [35], el módulo elástico de un material indentado por un indentador cónico podría ser calculado desde la rigidez de la descarga S y el área proyectada de contacto A a través de la ecuación II. Nanoindentación Donde E y n son el modulo elástico y la relación de Poisson del material respectivamente, Ei y ni son los mismos parámetros para el indentador. La forma de indentador más usado para la nanoindentación es de tipo Berkovich, el cual es una pirámide de tres caras con un ángulo total incluido de 142.3o. El concepto del ensayo de nanoindentación es utilizar un indentador, cuyas propiedades mecánicas son bien conocidas, para presionar en la superficie del material a analizar. La alta sensitividad del actuador y el sensor son usados simultáneamente para almacenar los datos experimentales de desplazamiento contra carga aplicada durante el recorrido de carga y descarga. De acuerdo a la distinta respuesta del comportamiento de carga y descarga, la dureza y el módulo reducido pueden ser estimados para diferentes materiales. En la Fig. 1 se muestra esquemáticamente la carga versus desplazamiento de un ciclo completo de carga y descarga. (3) Con b = 1. La rigidez finita del indentador es tomada en cuenta para la definición del módulo reducido Er de acuerdo a (4) Medidas realizadas por Oliver y Pharr [2] en un amplio rango de materiales muestra que el comportamiento inicial de la descarga para indentadores Berkovich es casi nunca lineal y es más adecuado describirlo por una relación de ley de potencias (5) Donde hf es la profundidad final después de completar la descarga, a y m son constantes. El exponente m puede variar de material a material en un rango de 1.25 a 1.51. La rigidez S se obtiene de la derivada de la relación cargadesplazamiento evaluada en la profundidad de indentación máxima h = hmax . (6) Fig. 1 Curva típica de Carga – Desplazamiento en un ciclo de nanoindentación. Los métodos más utilizados para el análisis de datos de indentación son basados en un problema de indentación de punta rígida en un espacio semi-elástico. Sneddon [10] estableció un procedimiento analítico, mostrando que para cualquier indentador de geometría asimétrica, la relación entre la carga aplicada P y el desplazamiento elástico h puede ser expresado como (2) Donde m es 1, 1.5 y 2 para una punta cilíndrica, un paraboloide y un cono respectivamente y a es una constante. Los primeros experimentos en los cuales la carga de indentación y la profundidad fueron continuamente medidos, fueron realizados por Tabor y Stillwell [33, 34]. Con el fin de calcular el área de contacto proyectada, la geometría del indentador necesita ser conocida a través de una función de área A(h), que relaciona el área de la sección transversal del indentador a la distancia del extremo h. Un indentador Berkovich ideal tiene una función de área cuadrada de A(h) = 24.5 h2. En la Fig. 2 se muestra una sección transversal de una superficie indentada bajo carga y después de ser removida la carga, ilustrando que la recuperación elástica únicamente toma lugar en la dirección de la profundidad de la carga aplicada y el radio de impresión a se mantiene constante. El total del desplazamiento h en cualquier tiempo durante el ciclo de indentación puede ser escrito como h = hc + hs, donde hc es la profundidad a lo largo del cual el contacto es realizado (profundidad de contacto) y hs es el desplazamiento de la superficie en el perímetro de contacto. Usando la expresión de Sneddon [10] para el perfil de la superficie fuera del área de contacto, Oliver y Pharr [2] obtuvieron la siguiente expresión para la profundidad de contacto hc Universidad Católica de Pereira 70 (7) Donde e es un parámetro que depende de la geometría del indentador, siendo 0.75 para un indentador Berkovich. Una vez que la profundidad de contacto se conoce, el área de contacto A(hc) puede ser evaluada y obtener el módulo de Young y la rigidez con las ecu. (4) y ecu. (6) respectivamente. Oliver y Pharr propusieron la siguiente función de área para describir el área proyectada del indentador (8) Donde los coeficientes son constantes de ajuste, las cuales son determinadas de una serie de indentaciones a varias profundidades de una muestra de cuarzo fundido. que la profundidad de contacto es superficial. Lo cual no es razonable en la práctica. En consecuencia la función de área de la ecuación (8) no es apropiada para describir el área proyectada bajo profundidad de contacto superficial. En el trabajo de Chao y otros[14] se buscó integrar el AFM con un sistema de nanoindentación para evitar la limitación de la función de área propuesta por Oliver y Pharr. Los resultados muestran que el área proyectada obtenida desde el AFM es significativamente diferente que el de la aproximación de Oliver y Pharr, incrementándose esta última de forma dramática, especialmente cuando la profundidad de contacto se aproxima a cero. En la Fig. 3 se muestra como el área proyectada obtenida por AFM es similar que el de una geometría perfecta. El primer término de esta ecuación describe la relación entre la profundidad de contacto y el área proyectada para el indentador perfecto. Además, la dureza H, definida como la presión media del material bajo carga, puede ser determinada usando (9) Fig. 3 Comparación aproximaciones [14]. del área proyectada de diferentes B. Corrección para materiales blandos Fig. 2. Sección transversal del perfil de la superficie durante y después de la indentación, muestra una interpretación gráfica del perfil de contacto [36]. III. Diferentes correcciones al modelo de oliver y pharr A. Modificación de la función de área Debido a la profundidad de contacto, la cual es extremadamente pequeña en el ensayo de nanoindentación, la geometría del indentador no es perfecta como consecuencia de la redondez de la punta del indentador. Otra consideración que hay que tener presente en el uso de la ecuación (8), la magnitud del área proyectada es dominante para el primero y segundo término bajo la profundidad de contacto. Sin embargo, en el área proyectada será dominante por los términos con órdenes menores a la unidad bajo profundidad de contacto superficial. Este resultado en el área proyectada comienza a incrementarlo o fluctuar mientras Entre Ciencia e Ingeniería Uno de los principales problemas de la técnica de nanoindentación es que las propiedades mecánicas son calculadas a partir de la curva de descarga usando la teoría de Oliver y Pharr [5]. Este modelo toma en cuenta deformaciones elásticas, pero desprecia otros fenómenos tales como la adhesión, deformaciones plásticas. Por lo tanto, el modelo de Oliver y Pharr es principalmente correcto para materiales rígidos pero varios errores ocurren en el caso de materiales conformados como los polímeros. Los problemas concernientes a la adhesión, deformaciones plásticas, son menos severos usando el AFM, puesto que las curvas de carga y no las curvas de descarga, son usadas para determinar las propiedades mecánicas. Usualmente, para pequeñas fuerzas inmediatamente después del contacto (a lo largo de la curva de carga), la interacción entre la punta y el polímero no se ve afectado por la adhesión ni la deformación plástica; únicamente la deformación elástica está presente y teorías elásticas, por ejemplo la teoría de Herz [8] puede ser usada. La mayoría de los AFMs, además de tener los modos de imagen tales como el modo de contacto y el intermitente, también tiene el modo de fuerza, capaz de medir curvas fuerza-distancia [37, 38]. Para generar la curva fuerza- 71 distancia, el cantiléver se mueve hacia la muestra por un piezo-transductor. Después del contacto, la muestra es indentada y el cantiléver se retira. El movimiento del piezo y la deflexión del cantiléver son medidas. De acuerdo a las dos direcciones del movimiento del cantiléver, la curva distancia-fuerza es dividida en una parte de aproximación y la otra de retirada. La primera parte de la curva de aproximación es una línea horizontal, llamada línea cero. En este momento de la medida, la distancia entre la punta y la superficie es grande y no mide ninguna deflexión porque las fuerzas que actúan entre la punta y la superficie son muy débiles. Una discontinuidad, se da un salto para el contacto, ocurre a una distancia, donde el gradiente de la fuerza atractiva comienza a ser más fuerte que la constante elástica del cantiléver, lo que resulta en un salto de la punta sobre la superficie de la muestra. La línea recta después de este chasquido es la línea de contacto. Si la rigidez del cantiléver excede al de la muestra, la punta actuará como un indentador y causa una deformación. En este caso, la información referente a las propiedades mecánicas de la muestra se puede determinar. La deformación D puede ser estimada como la diferencia entre el desplazamiento del piezo Z y la deflexión del cantilever d : D=Z-d (10) Como la deflexión del cantiléver es siempre muy pequeña, el cantiléver puede ser considerado como un resorte ideal. La ley de Hooke puede ser usada para describir el cantiléver, permitiendo el cálculo de la fuerza aplicada F con la siguiente fórmula: F = -kcd (11) Donde kc es la constante de resorte del cantiléver. Cuando la deformación y la fuerza son conocidas, las propiedades mecánicas pueden ser calculadas con la ayuda de la teoría elástica continua. La selección de la teoría depende de las propiedades físicas y de la geometría del sistema puntamuestra. El factor crucial es la relación entre la fuerza de adhesión y la fuerza aplicada[39, 40]. Por lo tanto, la teoría de Herz [8] puede ser usada para calcular el módulo de Young. La punta se asume como una esfera o paraboloide indentando un plano. La correspondiente fórmula de Herz es: (12) Donde D es la deformación, F la fuerza, R el radio de la punta y E* el módulo de Young reducido. El exponente depende únicamente de la forma de la punta y la muestra, cuyo valor es 2/3 únicamente para el caso de un indentador esférico o parabólico sobre una superficie plana, E* está dado por: (13) Donde E y n son el módulo de Young y la relación de Poisson de la muestra y Et y nt son el módulo de Young y la relación de Poisson de la punta del cantiléver. El modulo es calculado por ajuste de la curva deformación-fuerza con la ecuación de Herz. Con este procedimiento, en el trabajo propuesto por Griepentrog y otros [41], se logró determinar el módulo de Young con las curvas de fuerza-distancia para dos tipos de polímeros, determinando el radio de la punta del AFM necesario para una mayor precisión en los resultados. C. Determinación de la forma y el radio de curvatura de la punta de AFM. En algunos trabajos se ha estudiado el efecto de las características de la punta en la medida de la dureza. En uno de ellos [19], se estudió el efecto de la forma y el radio de curvatura de la punta en la medida de la dureza en la nanoindentación por AFM. Se realizó el estudio con diferentes formas de puntas de indentadores con el fin de cuantificar como la medida de la dureza es afectada por dos parámetros importantes: i) el ángulo de la punta [42] y ii) el radio de curvatura de la punta del indentador. Un modelo de elementos finitos fue usado también para comprender mejor el proceso de indentación. En paralelo a una aproximación teórica basada en la teoría de nanoindentación [43], ha sido optimizado para un indentador desgastado. Todas estas aproximaciones llevaron a deducir una relación teórica en la cual enlaza la medida de la dureza con la forma del indentador y el radio de curvatura de la punta. D. Calibración de la fuerza aplicada del cantiléver del AFM. La nanoindentación por AFM requiere un proceso de calibración complejo de la fuerza para el cual el conocimiento de cantidades tales como constante del resorte del cantiléver, el factor de sensitividad del fotodetector y la geometría de la punta, los cuales son necesarios para transformar los datos de las curvas de nanoindentación fuerza – distancia [44]. En la figura 4 se muestra una representación simplificada del proceso de indentación con una punta piramidal montado en un cantiléver para AFM. La fuerza aplicada F es controlada a través del cambio en el voltaje del fotodetector Vpd debido a la deflexión del cantiléver Zc alineado verticalmente con la fuerza, como se muestra en la figura, tal que (14) Donde k representa la constante del resorte normal del cantiléver. La correspondiente profundidad de penetración es obtenida por (15) Donde h es la profundidad de penetración con respecto al punto de contacto inicial, el cual incluye deformación elástica y deformación plástica, y Zp es la posición del piezo-escaner durante el desplazamiento hacia arriba desde el punto de contacto a Zpo. El factor de sensitividad S consiste en (16) Universidad Católica de Pereira 72 el cual es obtenido por la presión de la punta que ejerce sobre un material duro de referencia como el diamante [45], mientras que se almacena la respuesta (Zp, Vpd), y asumiendo que la penetración de la punta durante la calibración es despreciable con respecto a Zc, la ecu. (15) se transforma para este caso en (17) Las dos principales fuentes de incertidumbre en el protocolo estándar para medida de dureza en sustratos duros usando nanoindentación por AFM son las siguientes: i) Determinación de la constantes k de la ec. (14). Un amplio número de estudios han sido direccionados para resolver este inconveniente, han sugerido diferentes técnicas, generando más o menos incertidumbre en el cálculo de este parámetro [46, 47]. ii) Incertidumbre sistemático en la determinación del factor de sensitividad S, debido a dos razones, la primera involucra la no linealidad de la relación del voltaje del fotodetector – deflexión, el cual puede surgir al momento de generar amplias deflexiones del cantiléver [48, 49], y la segunda, la suposición de indentación cero en la muestra de referencia lo cual puede no ser correcto para cantiléver con k>20 N/m, aún si la interacción punta-superficie involucra puramente deformación elástica durante la calibración [24]. Sin embargo, diferentes métodos han sido propuestos para determinar el área proyectada de contacto en la medida de dureza por AFM, el cual varía de escanear directamente huella indentada [50-52], al tomar en cuenta el área de la sección transversal [50, 53]. es tomar en cuenta la deformación punta-superficie durante la calibración y la morfología actual de la punta. Usan la simulación por elementos finitos para determinar la constante de resorte del cantiléver y para comparar el área proyectada con la obtenida con el modelo. En el trabajo realizado por Calabri y otros [19] se estudió el efecto de la forma y radio de curvatura de la punta en la medida de la dureza usando el AFM para la nanoindentación. Un proceso de deconvolución geométrica ha sido utilizado con el fin de corregir el error sistemático en relación con el efecto del radio de curvatura de la punta. III. Conclusiones En el artículo se muestran algunos modelos para evaluar la dureza en superficies y películas delgadas, presentando algunas aproximaciones y consideraciones que se deben tener en cuenta al momento de realizar el ensayo de dureza usando el AFM. La mayoría de los trabajos referenciados, consideran de importancia significativa el conocimiento preciso de la forma y características geométricas del cantiléver, al momento de obtener resultados cuantitativos de dureza y módulo de Young. En los diferentes modelos se tienen contribuciones tanto elásticas como plásticas. Agradecimientos Los autores agradecen a la Universidad Católica de Pereira por su apoyo en esta investigación a través de la convocatoria 014. Al Tecnoparque SENA nodo Pereira en la línea de Biotecnología y Nanotecnología por permitir el uso del AFM. Referencias [1] [2] [3] [4] [5] Fig. 4 Representación simplificada de la nanoindentación por AFM con punta de diamante cúbico montado en un cantiléver [24]. En el trabajo propuesto por Sansoz y Gang [24], plantean una metodología para evaluar la fuerza aplicada usando una punta de diamante montada sobre un cantiléver de zafiro con un valor alto de la constante del resorte. Los autores mencionan que lo novedoso de esta aproximación Entre Ciencia e Ingeniería [6] [7] [8] [9] M. F. Doerner and W. D. Nix, “A method for interpreting the data from depth-sensing indentation instruments,” Journal of Materials Research, vol. 1, pp. 601-609, 1986. W. C. Oliver and G. M. Pharr, “An improved technique for determining hardness and elastic modulus using load and displacement sensing indentation experiments,” Journal of Materials Research, vol. 7, pp. 1564-1583, 1992. W. C. Oliver and G. M. Pharr, “Measurement of hardness and elastic modulus by instrumented indentation: Advances in understanding and refinements to methodology,” Journal of Materials Research, vol. 19, pp. 3-20, 2004. G. M. Pharr, “Measurement of mechanical properties by ultra-low load indentation,” Materials Science and Engineering: A, vol. 253, pp. 151-159, 9/30/ 1998. G. M. Pharr, W. C. Oliver, and F. R. Brotzen, “On the generality of the relationship among contact stiffness, contact area, and elastic modulus during indentation,” Journal of Materials Research, vol. 7, pp. 613-617, 1992. I. Jauberteau, M. Nadal, and J. L. Jauberteau, “Atomic force microscopy investigations on nanoindentation impressions of some metals: effect of piling-up on hardness measurements,” Journal of Materials Science, vol. 43, pp. 5956-5961, 2008/09/01 2008. J. Boussinesq, “Application des Potentials `a l’´equilibre et du Mouvememt des Solider ´elastiques,” Gauthier-Villars, Paris, vol. 45, p. 108, 1885. H. Hertz, “Translated and reprinted in English in “Hertz’s Miscellaneous Papers”,” J. Reine Angew. Math, vol. 92, p. 156, 1881. H. Hertz, “Verhandlungen des Vereins zur Bef¨orderung des Gewerbe Fleisses,” Translated and reprinted in English in “Hertz’s 73 [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] Miscellaneous Papers” (Macmillan & Co, London, 1896) Ch. 6., vol. 61, p. 410, 1882. I. N. Sneddon, “The relation between load and penetration in the axisymmetric boussinesq problem for a punch of arbitrary profile,” International Journal of Engineering Science, vol. 3, pp. 47-57, 5// 1965. I. 14577-1, “Metallic Materials-Instrumented Indentation Test for Hardness and Materials Parameters “ in Part 1: Test Method, ed, 2002. I. 14577-2, “Metallic Materials-Instrumented Indentation Test for Hardness and Materials Parameters,” in Part 2: Verification and Calibration of Testing Machines, ed, 2002. I. 14577-3, “Metallic Materials-Instrumented Indentation Test for Hardness and Materials Parameters,” in Part 3: Calibration of Reference Blocks, ed, 2002. L.-P. CHAO, J.-S. HSU, and Y.-D. LAU, “Measurement Of Nanomechanical Properties Of Thin Films By Integrating Nanoindentation System And Atomic Force Microscope,” International Journal of Nanoscience, vol. 06, pp. 57-64, 2007. M. Finke, J. A. Hughes, D. M. Parker, and K. D. Jandt, “Mechanical properties of in situ demineralised human enamel measured by AFM nanoindentation,” Surface Science, vol. 491, pp. 456-467, 10/1/ 2001. T. Kocourek, M. Růžek, M. Landa, M. Jelínek, J. Mikšovský, and J. Kopeček, “Evaluation of elastic properties of DLC layers using resonant ultrasound spectroscopy and AFM nanoindentation,” Surface and Coatings Technology, vol. 205, Supplement 2, pp. S67-S70, 7/25/ 2011. P. Milovanovic, J. Potocnik, D. Djonic, S. Nikolic, V. Zivkovic, M. Djuric, et al., “Age-related deterioration in trabecular bone mechanical properties at material level: Nanoindentation study of the femoral neck in women by using AFM,” Experimental Gerontology, vol. 47, pp. 154-159, 2// 2012. E. A-Hassan, W. F. Heinz, M. D. Antonik, N. P. D’Costa, S. Nageswaran, C.-A. Schoenenberger, et al., “Relative Microelastic Mapping of Living Cells by Atomic Force Microscopy,” Biophysical Journal, vol. 74, pp. 1564-1578, 1998. L. Calabri, N. Pugno, C. Menozzi, and S. Valeri, “AFM nanoindentation: tip shape and tip radius of curvature effect on the hardness measurement,” Journal of Physics: Condensed Matter, vol. 20, p. 474208, 2008. B. Du, J. Zhang, Q. Zhang, D. Yang, T. He, and O. K. C. Tsui, “Nanostructure and Mechanical Measurement of Highly Oriented Lamellae of Melt-Drawn HDPE by Scanning Probe Microscopy,” Macromolecules, vol. 33, pp. 7521-7528, 2000/10/01 2000. M. Mareanukroh, R. K. Eby, R. J. Scavuzzo, G. R. Hamed, and J. Preuschen, “Use of Atomic Force Microscope as a Nanoindenter to Characterize Elastomers,” Rubber Chemistry and Technology, vol. 73, pp. 912-925, 2000. Z. Shan and S. K. Sitaraman, “Elastic–plastic characterization of thin films using nanoindentation technique,” Thin Solid Films, vol. 437, pp. 176-181, 8/1/ 2003. E. Tomasetti, R. Legras, and B. Nysten, “Quantitative approach towards the measurement of polypropylene/(ethylenepropylene) copolymer blends surface elastic properties by AFM,” Nanotechnology, vol. 9, p. 305, 1998. F. Sansoz and T. Gang, “A force-matching method for quantitative hardness measurements by atomic force microscopy with diamondtipped sapphire cantilevers,” Ultramicroscopy, vol. 111, pp. 11-19, 12// 2010. C. A. Clifford and M. P. Seah, “Quantification issues in the identification of nanoscale regions of homopolymers using modulus measurement via AFM nanoindentation,” Applied Surface Science, vol. 252, pp. 1915-1933, 12/15/ 2005. J. Lee, C. Y. Kim, M. Joo, and K. Park, “Uncertainty compensation methods for quantitative hardness measurement of materials using atomic force microscope nanoindentation technique,” Thin Solid Films, vol. 546, pp. 448-452, 11/1/ 2013. B. Bhushan and V. N. Koinkar, “Nanoindentation hardness measurements using atomic force microscopy,” Applied Physics Letters, vol. 64, pp. 1653-1655, 1994. J. R. Withers and D. E. Aston, “Nanomechanical measurements with [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] AFM in the elastic limit,” Advances in Colloid and Interface Science, vol. 120, pp. 57-67, 6/30/ 2006. D. Beegan, S. Chowdhury, and M. T. Laugier, “Work of indentation methods for determining copper film hardness,” Surface and Coatings Technology, vol. 192, pp. 57-63, 3/1/ 2005. K. Miyake, S. Fujisawa, A. Korenaga, T. Ishida, and S. Sasaki, “The Effect of Pile-Up and Contact Area on Hardness Test by Nanoindentation,” Japanese Journal of Applied Physics, vol. 43, p. 4602, 2004. W. J. Poole, M. F. Ashby, and N. A. Fleck, “Micro-hardness of annealed and work-hardened copper polycrystals,” Scripta Materialia, vol. 34, pp. 559-564, 2/15/ 1996. R. Saha, Z. Xue, Y. Huang, and W. D. Nix, “Indentation of a soft metal film on a hard substrate: strain gradient hardening effects,” Journal of the Mechanics and Physics of Solids, vol. 49, pp. 19972014, 9// 2001. D. Tabor, A Simple Theory of Static and Dynamic Hardness vol. 192, 1948. N. A. Stilwell and D. Tabor, “Elastic Recovery of Conical Indentations,” Proceedings of the Physical Society, vol. 78, p. 169, 1961. K. L. Johnson, Contact Mechanics. United Kingdom: Cambridge University Press, 1985. N. J. M. Carvalho and J. T. M. DeHosson, “Microstructure investigation of magnetron sputtered WC/C coatings deposited on steel substrates,” Thin Solid Films, vol. 388, pp. 150-159, 6/1/ 2001. B. Cappella and G. Dietler, “Force-distance curves by atomic force microscopy,” Surface Science Reports, vol. 34, pp. 1-104, // 1999. H.-J. Butt, B. Cappella, and M. Kappl, “Force measurements with the atomic force microscope: Technique, interpretation and applications,” Surface Science Reports, vol. 59, pp. 1-152, 10// 2005. S. A. Chizhik, Z. Huang, V. V. Gorbunov, N. K. Myshkin, and V. V. Tsukruk, “Micromechanical Properties of Elastic Polymeric Materials As Probed by Scanning Force Microscopy,” Langmuir, vol. 14, pp. 2606-2609, 1998/05/01 1998. V. V. Tsukruk, Z. Huang, S. A. Chizhik, and V. V. Gorbunov, “Probing of Micromechanical Properties of Compliant Polymeric Materials,” Journal of Materials Science, vol. 33, pp. 4905-4909, 1998/10/01 1998. M. Griepentrog, G. Krämer, and B. Cappella, “Comparison of nanoindentation and AFM methods for the determination of mechanical properties of polymers,” Polymer Testing, vol. 32, pp. 455-460, 5// 2013. L. Calabri, N. Pugno, A. Rota, D. Marchetto, and S. Valeri, “Nanoindentation shape effect: experiments, simulations and modelling,” Journal of Physics: Condensed Matter, vol. 19, p. 395002, 2007. N. M. Pugno, “A general shape/size-effect law for nanoindentation,” Acta Materialia, vol. 55, pp. 1947-1953, 4// 2007. R. J. Emerson Iv and T. A. Camesano, “On the importance of precise calibration techniques for an atomic force microscope,” Ultramicroscopy, vol. 106, pp. 413-422, 3// 2006. S. Garcia-Manyes, A. G. Güell, P. Gorostiza, and F. Sanz, “Nanomechanics of silicon surfaces with atomic force microscopy: An insight to the first stages of plastic deformation,” The Journal of Chemical Physics, vol. 123, p. 114711, 2005. C. A. Clifford and M. P. Seah, “The determination of atomic force microscope cantilever spring constants via dimensional methods for nanomechanical analysis,” Nanotechnology, vol. 16, p. 1666, 2005. J. M. Neumeister and W. A. Ducker, “Lateral, normal, and longitudinal spring constants of atomic force microscopy cantilevers,” Review of Scientific Instruments, vol. 65, pp. 2527-2531, 1994. E. C. C. M. Silva and K. J. V. Vliet, “Robust approach to maximize the range and accuracy of force application in atomic force microscopes with nonlinear position-sensitive detectors,” Nanotechnology, vol. 17, p. 5525, 2006. L. Y. Beaulieu, M. Godin, O. Laroche, V. Tabard-Cossa, and P. Grütter, “A complete analysis of the laser beam deflection systems used in cantilever-based systems,” Ultramicroscopy, vol. 107, pp. 422-430, 4// 2007. T. Bao, P. W. Morrison, and W. Woyczynski, “AFM Nanoindentation as a Method to Determine Microhardness of Hard Thin Films,” MRS Universidad Católica de Pereira 74 Online Proceedings Library, vol. 517, pp. null-null, 1998. [51] R. C. S. Graça, R. Vilar, “Using Atomic Force Microscopy to Retrieve Nanomechanical Surface Properties of Materials,” Materials Science Forum, vol. 514-516, pp. 1598-1602, 2006. [52] M. Lucas, K. Gall, and E. Riedo, “Tip size effects on atomic force microscopy nanoindentation of a gold single crystal,” Journal of Applied Physics, vol. 104, p. 113515, 2008. [53] Y. D. Yan, T. Sun, and S. Dong, “Study on effects of tip geometry on AFM nanoscratching tests,” Wear, vol. 262, pp. 477-483, 2/4/ 2007. Diego Fernando Arias Mateus Ingeniero Químico y Magister en Física de la Universidad Nacional de Colombia sede Manizales y PhD en Ingeniería de la Universidad Nacional de Colombia sede Medellín. Actualmente es docente de Ciencias Básicas y pertenece al grupo de investigación GEMA de la Universidad Católica de Pereira. Diego Pérez Ingeniero Mecánico y aspirante a Magister en Ingeniería Mecánica de la Universidad Tecnológica de Pereira, actualmente joven investigador COLCIENCIAS y pertenece al grupo de investigación GIMAV de la Universidad Tecnológica de Pereira. Juan Manuel González Ingeniero Físico, Magister en Ciencias-Física de la Universidad Nacional de Colombia sede Manizales y PhD en Ingeniería de Materiales de la Universidad del Valle. Actualmente Líder de la línea de Biotecnología y Nanotecnología del Tecnoparque SENA-Nodo Cali e investigador del Grupo de Investigación en Desarrollo de Materiales y Procesos GIDEMP del Centro ASTIN y del Grupo de Investigación Recubrimientos Duros y Aplicaciones Industriales RDAI de la Universidad del Valle. Entre Ciencia e Ingeniería 75 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 75 - 83 El diodo Schottky como atenuador del efecto Seebeck en una celda Peltier para un control PID de temperatura1 The Schottky diode as attenuator of the Seebeck effect on a Peltier cell for a PID temperature control J.F. Leal, M.M. León y S.B. Sepúlveda Recibido Junio 15 de 2015– Aceptado Septiembre 23 de 2015 Resumen - Se desarrolló un sistema de control de temperatura y humedad relativa mediante el microcontrolador PIC16F877A, este microcontrolador, mediante la técnica de PWM de una señal de 25kHz, ejerce control sobre la celda Peltier TEC1-12706, y además efectúa un control ON/ OFF sobre un humidificador ultrasónico. Para el control de temperatura se diseñó un controlador PID discreto por medio de la herramienta ident y la herramienta controller PID de MATLAB. Se concluyó que la celda Peltier tiene un rendimiento termoeléctrico total del 33% y que aplicando la técnica de control PWM se producen el efecto Peltier y el efecto Seebeck; se determinó que el efecto Seebeck causa un deterioro sustancial en los enlaces moleculares de los termoelementos 1 Producto derivado del proyecto de investigación “Sistema de control y temperatura para una cámara de maduración de quesos”. Presentado por el Grupo de Investigación y Desarrollo en Microelectrónica Aplicada (GIDMA), de la Universidad Francisco de Paula Santander. J.F. Leal Ingeniero Electrónico, de la universidad Francisco de Paula Santander, Cúcuta (Colombia); email: [email protected]. M.M. León Ingeniero Electrónico, de la universidad Francisco de Paula Santander, Cúcuta (Colombia); email: [email protected] S.B. Sepúlveda docente adscrito al Departamento de Electricidad y Electrónica de la Universidad Francisco de Paula Santander, Cúcuta (Colombia); email: [email protected]. que conforman la celda Peltier. Sin embargo, se propone el diodo Schottky 15SQ045 como una solución eficaz y efectiva para anular los daños que produce el efecto Seebeck en la celda Peltier. Palabras clave - celda Peltier, PWM, efecto Seebeck, control PID Abstract - a temperature and humidity control system using a PIC16F877A microcontroller was developed. The system uses a 25 kHz PWM signal to control a TEC1-12706 Peltier cell. On the other hand, we made an ON/OFF control on the ultrasonic humidifier in order to regulate the relative humidity. To control the temperature, a discrete PID controller by using ident and controller PID tools from Matlab software was designed. Besides, we analyzed the behavior of the Peltier cell when a PWM signal is applied to it; the conclusion was that the TEC112706 Peltier cell has a total thermoelectric performance of 33% and both, Seebeck and Peltier effects are present when PWM is used; it was determined that the Seebeck effect causes a significant degradation on the molecular bonds in the thermoelements of the Peltier cell; this undesirable effect reduces the lifetime of the cell to a few hours. However, we propose the 15SQ045 Schottky diode as an effective solution to mitigate the damages that the Seebeck effect may cause to the Peltier cell. Key words - Peltier cell, PWM, Seebeck effect, PID control. Universidad Católica de Pereira 76 E I. Introducción L proceso para la elaboración del queso está conformado por una serie de etapas [1], entre las cuales se destaca la etapa de maduración; en ella se producen una serie de cambios físico-químicos que determinan las características del mismo [2], [3], estas características en gran medida son producto de las condiciones ambientales a las que se encuentra expuesto el queso [1]. Las condiciones ambientales inapropiadas para la maduración de quesos obligan a emplear una cámara de maduración donde se ejecute el control de la temperatura y humedad relativa [2], entre otras variables de menor impacto en la etapa de maduración [4], [5]. En busca de lo anterior, se pretende el uso de nuevas tecnologías, que ofrezca menos consumo de energía, menos costos de adquisición y mantenimiento de las que tradicionalmente se utilizan para refrigeración. El dispositivo elegido para el proceso de enfriamiento de la cámara es la celda Peltier [5], ya que por su propiedad termoeléctrica, fiabilidad, durabilidad y sencillez se ha convertido en un dispositivo para aplicaciones en equipos comerciales [6]. Algunos estudios se han realizado para la caracterización y modelamiento de la celda Peltier [7]-[10] desde diversas teorías. En [8] se realizó el control de una celda Peltier mediante la variación de su corriente DC para determinar su coeficiente de rendimiento (COP) durante el proceso de enfriamiento, este estudio concluyó que es conveniente que la celda Peltier opere en niveles bajos de potencia; sin embargo, esta situación es inconveniente con respecto a los requisitos operativos orientados [8]. Otra técnica de control utilizada para la celda Peltier es la modulación del ancho de pulso (PWM) de una señal de periodo constante; algunos autores emplean diversos materiales para determinar su comportamiento termodinámico y ofrecer una información útil para el diseño de controladores de temperatura [7]. Por otra parte, en [11] se realizó un sistema de control de temperatura conformado por un PC para desarrollar un controlador robusto no lineal y un microcontrolador para establecer una comunicación serial (RS232C) con el PC y generar una señal PWM que actúe sobre la celda Peltier; la respuesta de la temperatura para un set point con DT=3˚C, tiene las siguientes características: error=0.1˚C, %sobrepeso=0, leficaz=1.5A, testabilizacion= 400s. En conclusión, es un sistema de control de temperatura que tiene alta precisión, veloz y muy estable [11]. El sistema de control de temperatura presentado en este trabajo se diseñó únicamente para el proceso de enfriamiento, el cual se fundamenta en un controlador PID discreto y en la modulación del ancho de pulso de una señal con frecuencia de 25kHz generada mediante el módulo CCP del microcontrolador PIC16F877. La respuesta transitoria del control de temperatura se caracteriza por presentar siempre sobrepaso, debido al diseño del controlador PID y a las condiciones de operación de la cámara de maduración; aunque es importante destacar que en estado estable la respuesta presenta un error = 0˚C . Entre Ciencia e Ingeniería Lo que se pretende destacar en este trabajo es el comportamiento de la celda Peltier, cuando es controlada mediante la técnica PWM de una señal y sus repercusiones a corto plazo, con la finalidad de aportar a futuras aplicaciones en las que se desee la celda Peltier utilizar e indicar una solución práctica y eficaz cuando se presenten averías en ella. II. Materiales y métodos A. Arquitectura y funcionamiento del sistema El sistema de control de temperatura y humedad relativa está compuesto fundamentalmente por los dispositivos que se observan en la Fig. 1, además de diversos elementos necesarios para el correcto funcionamiento de estos dispositivos; su ensamblaje se realizó en la parte superior de la cámara como se aprecia en la Fig. 2b; igualmente, en la Fig. 2a se expone la cámara diseñada y construida según los parámetros requeridos para la maduración de queso. Fig. 1. Arquitectura general del sistema de control de temperatura y humedad relativa. Fig. 2. (a) Cámara de maduración. (b) Ensamblaje: (1) LCD 16x2, (2) PIC16F877A, (3) Etapa de potencia, (4) Disipadores de calor. El PIC16F877 y el sensor AM2302 establecen una comunicación maestro-esclavo mediante un único bus de datos para los valores de humedad relativa y temperatura (en grados Celsius); culminada la correcta transmisión de datos, el PIC se encarga de calcular el error de la temperatura y el valor del controlador discreto PID, para posteriormente ser cargado al módulo CCP del PIC, que en este caso funciona en modo PWM, con una frecuencia de 25kHz. La resolución (en bits) de la señal PWM [12] se determina en la ecuación (1), por lo tanto el valor entero que es cargado al módulo CCP debe estar comprendido entre 0 y 800=29,6438 bit, lo que significa que se establecen 800 puntos de ajuste para la potencia de las celdas Peltier. 77 (1) En la etapa de potencia de la celda Peltier se utilizó el MOSFET IRFZ44N, ya que conmuta a altas frecuencias y es controlado por tensión entre sus pines de compuerta y fuente. Además, se utilizó un circuito integrado de colector abierto 74LS05 para asegurar la correcta saturación y corte del MOSFET, lo que permite que sobre la celda Peltier se ejerza control de su tensión y consecuentemente de su potencia. Cuando el valor calculado por el controlador PID es constante, el error es cero y la temperatura en la cámara alcanza el valor exacto de la temperatura de ajuste; a partir de allí se ejecuta simultáneamente el control ON/OFF de la humedad relativa y el control PID de la temperatura (ver Fig. 4). El diagrama de bloques del sistema de control de temperatura y HR se observa en la Fig. 3 y el algoritmo de programación del PIC 16F877 se representa en la Fig. 4. El software utilizado para la programación del PIC 16F877 es el compilador PIC C (Compiler) v4.130 (CCS) mediante el lenguaje de programación en C desarrollado exclusivamente para microcontroladores de Microchip Technology Inc. Fig. 3. Diagrama de bloques del sistema de control de temperatura y humedad relativa. Fig. 4. Algoritmo de programación del PIC16F877A para el sistema de control. B. Características de los dispositivos 1) Sensor AM2302 El sensor AM2302 utiliza un único bus simplificado (pin SDA) para la comunicación y sincronización con el microcontrolador, su formato de comunicación se representa en la Fig. 5. Para acceder al sensor se debe seguir estrictamente el protocolo de comunicación maestro-esclavo como se observa en la Fig. 6. El PIC como maestro debe iniciar la comunicación sincronizando los tiempos Tbe (1ms) y Tgo (30 μS), después el sensor debe responder con Trel (80 μS) y Treh (80 μS) e inmediatamente envía los 40 bits de datos que se interpretan según la sincronización de Tlow (50 μS), TH0 (26 μS) y TH1 (70 μS), al terminar la transmisión el sensor libera el bus con Ten (50 μS) Fig. 5. Formato de comunicación del sensor AM2302. Fig. 6. Sincronización para la comunicación del sensor AM2302. Para verificar la transmisión de datos (bits) se tiene un byte de paridad que es la suma de 4 bytes, 2 bytes de humedad y 2 bytes de temperatura. El fabricante del sensor aclara que los datos de temperatura y de humedad relativa enviados al microcontrolador son siempre sus últimos valores medidos y Universidad Católica de Pereira 78 para que el microcontrolador obtenga una lectura continua y correcta del sensor, se debe tomar un intervalo de mínimo 2 segundos entre cada lectura. El algoritmo de programación del PIC 16F877 para la lectura del sensor AM2302 se observa en la Fig. 7. Fig. 8. Módulo Peltier implementado. La celda Peltier o célula termoeléctrica (TEC), son dispositivos compuestos por varios termopares (TC) térmicamente conectadas en paralelo y eléctricamente en serie [10]. Un termopar [7] está compuesto por un material semiconductor tipo N y un material tipo P llamados generalmente termoelementos, los cuales son unidos en uno de sus extremos con un material conductor; en un termopar pueden ocurrir tres efectos: Seebeck, Peltier y Thomson [9]. Cuando a la celda Peltier se le suministra corriente continua ocurre el efecto Peltier, por lo tanto la celda actúa como enfriador. Por el contrario, cuando a la celda Peltier se le suministra calor ocurre el efecto Seebeck, entonces la celda actúa como un generador eléctrico. El balance de energía calorífica presente en la celda Peltier se observa en la Fig. 9 [8]. Fig. 7. Algoritmo de programación del PIC16F877A para la lectura del sensor AM2302. 2) Módulo Peltier El módulo Peltier implementado consta de una celda Peltier TEC1-12706, con dos disipadores (uno en cada lado de la celda) y un conductor térmico entre la celda y el disipador del lado frío para separar físicamente los disipadores y evitar transferencia de calor (ver Fig. 8). De manera experimental se determinaron las características eléctricas nominales de la celda, las cuales son 3.5A y 12Vdc. El diferencial térmico y la vida útil de la celda Peltier indicado por el fabricante son respectivamente de 66 ºC y 200000 horas; sin embargo, el diferencial de temperatura que se obtuvo con el módulo Peltier implementado es de 47 ºC, tomando como referencia la temperatura del disipador del lado caliente. Entre Ciencia e Ingeniería Fig. 9. Flujos de calor presentes en la celda Peltier. En general, el flujo total de calor eliminado en el lado frío y bombeado al lado caliente es [7]: (2) (3) Donde a es el coeficiente de Seebeck (V/K), Kt y R son, respectivamente, la conductancia térmica y la resistencia eléctrica del módulo; Th y Tc son la temperatura en el lado caliente y la temperatura en el lado frío del módulo termoeléctrico. 79 La potencia total transferida se obtiene restando las ecuaciones (2) y (3): (4) Lo cual es equivalente a la energía eléctrica necesaria para accionar el dispositivo, P=VI [7]. La potencia suministrada se convierte entonces en dos fuentes de calor diferentes: el flujo de calor termoeléctrico (PTE), proporcional a la corriente eléctrica, y la generación de calor por efecto de Joule (PRTH), proporcional al cuadrado de la corriente. Para el proceso de enfriamiento debe ocurrir el efecto Peltier, el cual se fundamenta en el movimiento de electrones a través de los TC que conforman la celda Peltier (ver Fig. 10). [13] Cuando un electrón pasa de un nivel energético mayor (termoelemento tipo N) a un nivel energético inferior (termoelemento tipo P), libera energía (lado caliente). De igual manera, [5] si un electrón pasa de un nivel energético inferior (termoelemento tipo P) a un nivel energético mayor (termoelemento tipo N), absorbe energía (lado frío). Al invertir la dirección de la corriente, cambia el sentido de la transferencia de calor, es decir, el lado frío se convierte en el lado caliente y viceversa [13]. 99.57% a un sistema de 3 polos y además determinó su función de transferencia, la cual se expresa en la ecuación (5). (5). Los 3 polos que se encuentran en la función de transferencia de la cámara de maduración son reales (negativos) e iguales, por lo tanto, se supone que el sistema de enfriamiento es críticamente amortiguado. El diseño del controlador PID se realizó mediante el bloque controller PID de Simulink (entorno de programación visual de Matlab), este bloque calcula las constantes de proporcionalidad, integración y derivación del controlador y algunos parámetros relevantes de su respuesta transitoria. Para obtener la respuesta de control que se observa en la Fig. 11 se utilizó el método heurístico, ubicando el margen de ganancia en 39,8 y el ángulo de fase del controlador en 60°, debido a la proyección de funcionamiento que tiene la cámara de maduración, aunque estos valores son ajustables para conseguir la respuesta deseada. El sistema de enfriamiento de la cámara de maduración (volumen interno 56000cm3) está compuesto por 4 módulos Peltier; la respuesta del sistema alcanzó a disminuir la temperatura en 27℃, es decir, el diferencial máximo de temperatura de la cámara es de 27℃ respecto de la temperatura ambiente, en un tiempo aproximado de 1 hora y 40 minutos. Fig. 11. Respuesta del controlador PID del bloque controller PID Simulink de MATLAB R2013a. III. Evaluación y resultados A. La celda Peltier usando la técnica de PWM Fig. 10. Efecto Peltier en la celda TEC1-12706. La Fig. 12a corresponde a la señal de tensión en la celda Peltier, esta señal de tensión presenta un rizado de 11 Vp-p cuando la señal PWM cambia ha estado bajo, el rizado indica que la celda Peltier se comporta como un generador eléctrico, es decir ocurre el efecto Seebeck. Los análisis y modelos planteados en [7]- [10] para la celda Peltier involucran complejos estudios, los cuales no se ejecutaron en la celda TEC1-12706 debido a la falta de información sobre ella y a los requerimientos que exigen estos estudios. 3) Controlador PID El modelamiento de la cámara se realizó mediante el software MATLAB R2013a (v.8.1.0.604) utilizando la herramienta ident. Esta herramienta estableció que la respuesta del sistema de enfriamiento se aproxima en un Universidad Católica de Pereira 80 B. El diodo Schottky como atenuador del efecto Seebeck El Diodo Schottky 15SQ045 está diseñado para funcionar en altas frecuencias y con baja tensión de polarización directa. Este dispositivo funciona como diodo de rueda libre y es conectado en antiparalelo a la celda Peltier, lo que permite que la corriente generada por el efecto Seebeck mantenga la misma dirección establecida cuando la señal PWM está en alto, evitando que se genere un movimiento bidireccional de electrones y fonones, y así, equilibrar la temperatura en la celda Peltier. Fig. 12. (a) Señal de tensión en la celda Peltier sin el diodo Schottky. (b) Desempeño térmico de la celda TEC1-12706 para distintas frecuencias de control PWM en un periodo de 10 horas. En general, el efecto Seebeck se debe a dos contribuciones: la difusión de electrones convencional y la contribución de fonones-arrastre [14]. La contribución por difusión es causada por la variación espacial de la ocupación electrónica por la presencia de un gradiente térmico, mientras que la contribución de fonones-arrastre surge por la interacción entre vibraciones en las redes anisotrópicas y portadores de carga móviles; estas dos contribuciones tienen relación proporcional con el diferencial de temperatura obtenida en la celda Peltier [15]. Al originarse el efecto Seebeck la absorción de energía que se generaba en el lado frío se disipa rápidamente, [16] debido a que en el termoelemento tipo N ocurre el proceso de difusión de electrones ( [17] los electrones del extremo caliente contienen mayor energía y adquieren velocidad para dirigirse hacia el lado frío) y en el termoelemento tipo P la difusión de huecos también se dirige hacia el lado frío [5]; después de algún tiempo, se alcanza un estado de equilibrio, donde el campo eléctrico creado impide un aumento adicional de esta difusión de portadores [17], [15]. En conclusión, la difusión de electrones propiciado por el efecto Seebeck es contraria a la dirección de movimiento de los electrones establecida para el enfriamiento del sistema, este es el motivo por cual se observan picos negativos en la Fig. 12a. El fenómeno anteriormente descrito, hará que se tenga un movimiento bidireccional no armónico de los portadoresfonones en los materiales termoelementos tipo N y tipo P de la celda Peltier, como consecuencia se tiene un control de temperatura con una perturbación constante en cada ciclo de la señal PWM y un deterioro de los enlaces moleculares debido a la interacción no armónica de electrones-fonones que afecta significativamente a las características de transporte de los termoelementos N y P [18]; por esta razón, la vida útil de la celda Peltier es afectada en un corto plazo. En la Fig. 12b se muestra la disminución del diferencial de temperatura que tiene la celda cuando se ejecutaron varios controles de temperatura con distintas frecuencias. El resultado obtenido en la Fig. 12b, se encuentra acorde con el estudio realizado en [19], donde se indicó que la influencia del campo de corriente alterna en el efecto termoeléctrico es relacionado directamente con el aumento de la frecuencia. Entre Ciencia e Ingeniería El termoelemento tipo N de la celda Peltier está fuertemente dopado de electrones, los cuales son rechazados por los electrones libres del material tipo N del diodo Schottky 15SQ045, como consecuencia los electrones libres del diodo se dirigen hacia su unión P-N (ver Fig. 13). Por otra parte, los huecos del material tipo P de la celda son rechazados por los huecos del material tipo P del diodo, como consecuencia los huecos del diodo se dirigen hacia la unión P-N. Es así como el diodo se polariza en directo, conduciendo electrones en la misma dirección, es decir beneficiándose del efecto Seebeck para que el efecto Peltier siga funcionando un corto tiempo, hasta que la corriente en el diodo se suprima. Fig. 13. Conexión de la celda Peltier TEC1-12706 y el diodo Schottky 15SQ045. La señal de tensión obtenida en la celda Peltier con el diodo Schottky 15SQ045 conectado en antiparalelo se observa en la Fig. 14a, claramente se determina que el diodo anula los picos negativos presentes en la Fig. 12a y conserva el diferencial térmico de la celda independientemente de la frecuencia PWM como se aprecia en la Fig. 14b. C. Respuesta del sistema de control El queso Cheddar tiene su punto óptimo de maduración a una temperatura de 12℃, con una humedad relativa (HR) entre 87% y 95% [20]. Arbitrariamente se estableció el punto de ajuste de temperatura en 12.3℃ y de HR en 85.0% durante 8 semanas. En la Fig. 15 se observa la respuesta del sistema de control de temperatura y humedad relativa cuando la temperatura ambiente es de 30℃. La respuesta del sistema de control de temperatura es una respuesta sub-amortiguada, con un sobrepaso del 15.38% y un tiempo de estabilización de 6200 segundos (1 hora y 43 minutos). Cuando el error de 81 la temperatura es cero y el valor del controlador es estable (punto 1), se activa el humidificador (punto 2) para obtener la HR requerida. El control sobre el humidificador es ON/ OFF que se condiciona del error de la temperatura, el valor del controlador PID y el error de la humedad relativa (ver Fig. 4). (6) (7) (8) La potencia disipada en forma de calor por efecto Joule (PRTH) se determina en la ecuación (9), donde RTH =2.3Ω (resistencia del módulo) es especificada por el fabricante de la celda Peltier TEC1-12706 cuando la temperatura en el lado caliente de la celda es de 50ºC. 14 (a) (9) Por lo tanto la potencia debida al flujo de calor termoeléctrico (PTE) se obtiene restando las ecuaciones (8) y (9): (10) De las ecuaciones (8), (9) y (10), se determina que el rendimiento termoeléctrico total, en este caso, es de aproximadamente 33% (PTE/PAVG) de la potencia total transferida a la celda Peltier TEC1-12706. Es importante aclarar que este rendimiento total no es el mismo rendimiento de enfriamiento. 14 (b) Fig. 14. (a) Señal de tensión en la celda Peltier con el diodo Schottky 15SQ045. (b) Desempeño térmico de la celda TEC1-12706 con el diodo 15SQ045 para distintas frecuencias de control PWM en un periodo de 10 horas. Una segunda prueba de control se realizó para el queso Cheddar con los mismos puntos de ajuste, pero con una temperatura ambiente de 26ºC. Los parámetros arrojados en las dos pruebas del sistema de control de temperatura y humedad se tebularon en la Tabla I. tabla i. parámetros de la respuesta al control de temperatura y humedad relativa para el queso cheddar Fig. 15. Respuesta del sistema de control de temperatura y humedad relativa para el queso Cheddar. D. Rendimiento de la celda Peltier En el punto 3 de la Fig. 15 se estabiliza la temperatura con un error en estado estable de cero y la humedad relativa se ubica 3% por arriba de su punto de ajuste. En este punto, el valor del controlador PID discreto es de 523, lo que representa el 66.6% del ciclo útil de la señal PWM de 25kHz. Basado en la señal de tensión de la celda, se determina analíticamente la potencia total transferida (Ec. 8) utilizando las ecuaciones (6) y (7). En definitiva la potencia total transferida de la celda Peltier en la segunda prueba es PAVG = 14,177W , su potencia debida al flujo de calor termoeléctrico es PTE = 4,677W y la potencia debida al efecto Joule es PRTH = 9,506W . Esto indica que el rendimiento termoeléctrico de la celda Peltier se mantiene en 33%, aunque es relevante señalar que el rendimiento térmico es dependiente de la temperatura del lado caliente de la celda Peltier como se deduce fácilmente de la ecuación (4), por esta razón se recomienda implementar un disipador activo de calor específicamente diseñado para los dispositivos Peltier, los cuales ya se encuentran en el mercado. Universidad Católica de Pereira 82 IV. Conclusiones Se ha argumentado y demostrado que la celda Peltier TEC1-12706 se deteriora seriamente cuando es controlada mediante la técnica de PWM; sin embargo, se ha propuesto el diodo Schottky 15SQ045 como una solución eficaz y efectiva para anular los daños que ocasiona el efecto Seebeck cuando se utiliza esta técnica de control en celda TEC112706. Asimismo, el diodo Schottky 15SQ045 permitió que la celda Peltier se beneficie del efecto Seebeck, debido a que el diodo conduce una corriente de retroalimentación que favorece al efecto Peltier en la celda. Mediante la técnica de control PWM se logró controlar gradualmente (resolución de 0 a 800) la potencia de la celda Peltier, obteniendo así temperaturas exactas. El rendimiento total termoeléctrico de la celda TEC1-12706 es del 33% debido en gran parte a los parámetros termoeléctricos de la celda Peltier [7]-[10] y a la insuficiencia de los disipadores de calor implementados, ya que el desempeño del disipador de calor interviene en el valor de TH y por lo tanto influye en el rendimiento de la celda como se establece en las ecuaciones (3) y (4). Un aspecto destacable es que la celda Peltier consume la energía eléctrica estrictamente necesaria para mantener la temperatura constante, esto se concluye de la Tabla I, cuando la temperatura ambiente se reduce, la potencia transferida a la celda también lo hace. El controlador PID desarrollado mediante MATLAB y ejecutado por el PIC16F877A cumplió con las expectativas de operación de la cámara de maduración. La respuesta transitoria y permanente del sistema de control de temperatura (véase la Fig. 15 y Tabla I) demostró que la celda Peltier es un dispositivo preciso y confiable; además de ser rentable y ecológico, ya que confrontada con los sistemas tradicionales de enfriamiento, presenta ventajas como: bajo costo de adquisición y mantenimiento, larga expectativa de vida y disminución de energía eléctrica consumida. Referencias [1] J. Benedito, J. Carcel, R. Gonzalez y A. Mulet, «Application of low intensity ultrasonics to cheese manufacturing processes,» Ultrasonics, 2002. [2] M. Riahi, I. Trelea, M.-N. Leclercq-Perlat, D. Picque y G. Corrieu, «Model for changes in weight and dry matter during the ripening of a smear soft cheese under controlled temperature and relative humidity,» International Dairy Journal, 2007. [3] D. D. Muir, E. A. Hunter, J. M. Banks y D. S. Horne, «Sensory properties of Cheddar cheese: changes during maturation,» Food Research International, 1996. [4] D. Picque, H. Guillemin, P. Mirade, R. Didienne, R. .Lavigne, B. Perret, M. Montel y G. Corrieu, «Effect of sequential ventilation on cheese ripening and energy consumption in pilot ripening rooms,» International Dairy Journal, 2009. [5] Z. Xiao y Z. Li-Dong, «Thermoelectric materials: Energy conversion between heat and electricity,» Journal of Materiomics 1, 2015. [6] Los incubadores refrigerados IPP de Memmert, Alemania: Memmert, 2014. [7] G. A. Mannella, V. La Carrubba y V. Brucato, «Peltier cells as temperature control elements: Experimental characterization and modeling,» Applied Thermal Engineering, 2013. [8] T. Brestovic, N. Jasminská, M. Carnogurská, M. Puškár, M. kelemen y Entre Ciencia e Ingeniería M. Filo, «Measuring of thermal characteristics for Peltier thermopile using calorimetric method,» Measurement, 2014. [9] J. Pérez–Aparicio, R. Palma y R. Taylor, «Finite element analysis and material sensitivity of Peltier thermoelectric cells coolers,» International Journal of Heat and Mass Transfer, 2011. [10] J. J. Paez y J. E. Rodriguez, «Propiedades electricas y estructurales de compuestos creamicos del tipo CaMnO-Y,» Revista de Fisica, Momento, 2012. [11] W. Shengjun y D. Mingcong, «Operator-based robust nonlinear control and fault detection for a Peltier actuated thermal process,» Mathematical and Computer Modelling, 2011. [12] E. Garcia, Compilador C CCS y simulador PROTEUS para microcontroladores PIC, Mexico: Alfa y Omega Grupo Editor, 2008, p. 143. [13] C. J. Hermes y J. R. Barbosa, «Thermodynamic comparison of Peltier, Stirling, and vapor compression portable coolers,» Applied Energy, 2012. [14] A. Sellitto, V. Cimmelli y D. Jou, «Influence of electron and phonon temperature on the efficiency of thermoelectric conversion,» International Journal of Heat and Mass Transfer, 2015. [15] R. Hopfel y J. Shah, «Electron.hole drag in semiconductors,» SolidState Electronics, 1988. [16] J. Jay-Gerin, «Thermoelectric power of semiconductors in the extreme quantum limit: The electron-diffusion contribution,» Journal of physics and chemistry of solids, 1974. [17] P. Egolf, L. Gravier, T. Francfort, A.-G. Pawlowski y G. Courret, «High-frequency magnetocaloric modules with heat gates operating with the Peltier effect,» International journaly of refrigeration, 2014. [18] M. Bagheri Tagani y H. Rahimpour Soleimani, «Phonon-assisted thermoelectric effects in a two-level molecule,» Physica B, 2013. [19] C. Qiao, W. Zhi-yong y X. Zhong-Xiang, «Enhancement of the thermoelectric figure of merit in a quantum dot due to external ac field,» Physics Letters A, 2013. [20] J. Hort y G. Le Grys, «Developments in the textural and rheological properties of UK cheddar cheese during ripening,» International Dairy Journal, 2001. Josué Leal, nació en San José de Cúcuta, Colombia, el 5 de octubre de 1990. Se graduó de ingeniero electrónico de la Universidad Francisco de Paula de Santander en diciembre del 2014. Miembro activo del Grupo de Investigación y Desarrollo en Microelectrónica Aplicada (GIDMA) desde junio del 2014. Ejerció profesionalmente en la empresa CEMEX S.A-Cúcuta desde julio del 2013 a marzo del 2014. Mónica León, nació en San José de Cúcuta, Colombia, el 24 de enero de 1991. Se graduó de ingeniero electrónico de la Universidad Francisco de Paula de Santander en junio del 2015. Miembro activo del Grupo de Investigación y Desarrollo en Microelectrónica Aplicada (GIDMA) desde junio del 2014. Realizó tesis de investigación titulada “Sistema de control de temperatura y humedad relativa para una cámara de maduración de quesos”, donde obtuvo distinción de tesis meritoria. Sergio Sepúlveda (M’ 2013), nació en San José de Cúcuta, el 11 de octubre de 1984. Se graduó de ingeniero electrónico de la Universidad Francisco de Paula Santander en la ciudad de Cúcuta, Colombia en junio de 2007. Obtuvo el título de Master of Science in Electrical and Computer Engineering de la Universidad de Delaware en Newark, DE, Estados Unidos en mayo de 2012. Se ha desempeñado como Profesor Catedrático de la Universidad de Pamplona, en Villa del Rosario, Norte de Santaner, Colombia entre el 2009 y el 2010. Fue Joven 83 Investigador e Innovador para Colciencias y la Universidad Francisco de Paula Santander en Cúcuta, entre el 2008 y el 2010. Obtuvo una beca Fulbright de posgrado para las Regiones desde el 2010 hasta el 2012. Actualmente se desempeña como profesor tiempo completo e investigador en la Universidad Francisco de Paula Santander. Es integrante activo del Grupo de Investigación y Desarrollo en Microelectrónica Aplicada (GIDMA) desde octubre de 2013. Sus intereses en investigación son los sistemas de control, sistemas embebidos, redes de sensores inalámbricas y energía solar fotovoltaica. El ingeniero Sepúlveda es el consejero del capítulo PES de la rama estudiantil IEEE en la Universidad Francisco de Paula Santander desde el 2014. Universidad Católica de Pereira 84 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 84 - 94 Comparación de dos algoritmos para hallar ternas pitagóricas usando dos paradigmas de programación diferentes1 Comparison of two algorithms in order to find Pythagorean triples using two different programming paradigms O. I. Trejos Recibido Junio 10 de 2015 – Aceptado Septiembre 23 de 2015 Resumen— En este artículo, además de analizar las características algorítmicas de dos versiones de solución al problema de hallar ternas pitagóricas en un rango de 1 hasta n para n como un valor entero definido, se realiza una comparación entre la solución implementada a partir del paradigma de programación funcional, basado en lenguaje Scheme entorno Dr. Racket versión 6.1 y la solución implementada a partir del paradigma de programación imperativa utilizando lenguaje C++ arista estructurada entorno DevC++ Versión 5.8.0. La comparación de estas dos soluciones, vistas desde paradigmas de programación diferentes, se hace a nivel de codificación pura, a nivel de la lógica utilizada para resolverlo y a nivel del rendimiento y la eficiencia, apoyados en la medición de tiempos de proceso. Ambos programas presentan los resultados en dos formatos y la comparación de rendimiento se hace teniendo en cuenta el despliegue en la pantalla. Esta comparación no solo permite establecer relaciones entre los paradigmas de programación (paradigma funcional y paradigma imperativo) sino que posibilita el planteamiento de un híbrido que pudiera ser mucho más eficiente que ambos, pero a partir de 1 Producto derivado del proyecto de investigación “Desarrollo de un modelo pedagógico para la asignatura Programación I en Ingeniería de Sistemas basado en aprendizaje significativo, aprendizaje por descubrimiento y el modelo 4Q de preferencias de pensamiento”. Presentado por el Grupo de Investigación en Informática de Ingeniería de Sistemas y Computación, de la Universidad Tecnológica de Pereira. O.I. Trejos Docente de Planta, Ingeniería de Sistemas y Computación, Universidad Tecnológica de Pereira (Colombia); email: omartrejos@utp. edu.co. Entre Ciencia e Ingeniería lo más eficiente que cada uno puede aportar. Cada una de las implementaciones es totalmente original producto de la investigación y de la iniciativa y la experiencia del autor de este artículo. Palabras clave — algoritmo, programación funcional, programación imperativa, procesos cíclicos, recursión, ternas pitagóricas Abstract — in this article we analyze the algorithmic characteristics of two solutions for the problem to find Pythagorean triples in a specific range from 1 to n to a defined value of n as an integer. We also make a comparison between the solution implemented with functional paradigm in Scheme language environment Dr. Racket version 6.1 and the solution implemented with imperative paradigm in C++ language environment Dev C++ version 5.8.0. The comparison of these solutions is made from the perspective of two different programming paradigms. We analyze the pure codification, the logic used in the implementation and the performance and efficiency using the computer timer. Both programs present two formats to show the results in the display. These comparisons not only permit to establish possible relations between the programming computer paradigms (functional and imperative) but also let us to think about a hybrid solution from the best of each solution implemented. Each implementation is absolutely original product of the research and the initiative and experience of the author of this article. Key words— algorithm, functional programming, imperative programming cyclic process, recursion, Pythagorean triples. 85 L I. Introducción A programación, según la teoría que se deriva de la ingeniería de sistemas, es uno de los posibles caminos con que se cuenta para encontrar soluciones a determinados problemas que, según sea su contexto, tienen un nivel establecido de complejidad y resolución que le permiten al computador desarrollar las tareas que resuelvan lo que para el ser humano podría ser agotador [1]. Uno de los terrenos más fértiles tanto para el planteamiento de problemas como para su articulación con la programación en la construcción de las posibles soluciones son las matemáticas. En esta área la tecnología provee mecanismos que facilitan la construcción de dichas soluciones. El hallazgo de soluciones a problemas matemáticos desde la óptica de la programación permite que se apropien, se asimilen, se apliquen, se evalúen y, más importante, se retroalimenten planteamientos derivados de la lógica computacional que, no sólo son aplicables en matemáticas, sino en otras áreas del conocimiento a partir del concepto de Algoritmización, Codificación y Puesta a Punto [2]. Se hace necesario que el conocimiento, como el técnico que provee la programación de computadores, se confronte con situaciones prácticas reales de forma que se relacione, en tiempo de solución, con áreas que proveen los problemas, los enunciados y las situaciones problémicas [3]. Esta confrontación es lo que permite imprimirle significado al conocimiento, es decir, el hallazgo de esos espacios donde el conocimiento es útil para el cerebro [4]. El camino del aprendizaje en cualquier proceso de formación y adquisición de conocimientos es mucho más expedito cuando dicho aprendizaje se aplica confiriéndole significado pues esto permite que tienda a ubicarse en la memoria a largo plazo [4]. De allí por qué, la relación entre el conocimiento técnico y los problemas prácticos que provea la matemática es tan importante pues se evidencia aplicación, conocimiento y significado. Las relaciones didácticas entre el conocimiento y su aplicación se pueden apropiar por un camino más sencillo en la medida en que se puedan construir y, además, comparar bajo determinados criterios que apunten a una solución óptima. La estrategia de la comparación de soluciones, desde la óptica de los paradigmas de programación, permite que se puedan enfrentar conceptos para bien de la apropiación y asimilación de conocimientos por parte del estudiante. Cuando se establecen este tipo de comparaciones se le permite al estudiante encontrar aún más significado al conocimiento adquirido y relacionarlo no solo con los conocimientos previos sin con los conocimientos transversales que sirven de base para resolver el mismo objeto de conocimiento. El contenido de este artículo busca que los estudiantes no solo verifiquen, prueben y conozcan soluciones a problemas determinados sino que las comparen en dos paradigmas diferentes desde una óptica práctica basándose más en la lógica y el razonamiento que en procedimientos mecánicos y enteramente memorísticos [5]. La gran utilidad que tiene este artículo es que afianza, desde dos ópticas completamente diferentes, la idea de que el proceso de aprendizaje de la aplicación de los recursos tecnológicos modernos se fundamenta en las posibles relaciones que se pueden establecer entre determinados problemas (caracterizados por su naturaleza) y las soluciones que se puedan implementar para resolverlos. Precisamente una de las dificultades que tiene el docente en estos tiempos modernos, especialmente los docentes de las áreas de aplicación tecnológica, es lograr que el estudiante no solo aplique los conocimientos adquiridos sino que los confronte con conocimientos transversales que están al mismo nivel de utilización [6]. Se ha acudido a las matemáticos como el proveedor de problemas, específicamente del hallazgo de ternas pitagóricas, porque es uno de los terrenos donde el estudiante puede articular teoría con práctica, a lo cual se le puede adicionar el concepto de práctica múltiple, es decir, la práctica que se deriva de aplicar diferentes paradigmas en la resolución de un mismo problema. Los procesos de aplicación comparativa de soluciones tienden a afianzar los conocimientos adquiridos en los procesos de aprendizaje [7]. En cuanto a la pregunta de investigación asociada al contenido del presente artículo, ésta podría describirse en los siguientes términos: ¿es posible encontrar caminos que afiancen el conocimiento adquirido y su significado de aplicación que se basen en la comparación de objetos de estudio similares a partir de los paradigmas de programación que refuercen tanto los conocimientos previos como los nuevos conocimientos? La respuesta es el contenido del artículo donde se presenta una posible alternativa en tratándose de paradigmas de programación y su relación con un problema específico: el hallazgo de ternas pitagóricas. La respectiva hipótesis plantea que es posible lograrlo de manera efectiva en campos como el de la programación de computadores si se formulan soluciones desde, por ejemplo, el paradigma funcional y el paradigma imperativo, que tiendan a resolver un mismo problema (como el hallazgo de ternas pitagóricas). El contenido de este artículo se fundamenta en la investigación científica y tecnológica apoyado en la teoría del aprendizaje significativo [4], teoría del aprendizaje por descubrimiento [5] así como la tendencia Active Learning y Problem Based Learning que propenden no sólo por hacer al alumno partícipe y responsable de su propio proceso de aprendizaje sino de relacionar permanentemente los conceptos que se revisan desde la teoría con sus aplicaciones prácticas. Adicionalmente, este artículo presenta de una forma aplicada, la estrecha relación que existe entre la matemática, proveedora de problemas, y la programación, como instancia de aquella en lo puramente tecnológico que posibilita algunas soluciones, como una manera de concederle significado a la teoría que se deriva de los paradigmas de programación. Se plantean en el contenido de este artículo dos propuestas de solución algorítmica al problema de la búsqueda y hallazgo de ternas pitagóricas, es decir, aquellos números que cumple con el teorema de Pitágoras. Con estas propuestas se realiza un proceso de comparación en lo sintáctico, en lo lógico y en lo procedimental con el ánimo de afianzar los criterios Universidad Católica de Pereira 86 que permiten la construcción de cada una de ellas desde la perspectiva de cada paradigma seleccionado. Para la implementación se ha acudido al lenguaje C++ arista imperativa y a su entorno DevC++ versión 5.8.0 en lo que corresponde a la solución imperativa; por su parte se ha acudido al lenguaje Scheme en su entorno DrRacket versión 6.1 en lo que compete a la solución funcional. De la misma manera el contenido de este artículo es uno de los productos del proyecto de investigación “Desarrollo de un modelo metodológico para la asignatura Programación I en Ingeniería de Sistemas basado en aprendizaje significativo, aprendizaje por descubrimiento y el modelo 4Q de preferencias de pensamiento” Código 6-15-10 de la Vicerrectoría de Investigaciones, Innovación y Extensión de la Universidad Tecnológica de Pereira. II. Marco teórico El primer paradigma que se ha utilizado para elaborar una solución al problema del hallazgo de las ternas pitagóricas se conoce como el paradigma funcional, que se basa en la matemática derivada del cálculo Lambda y su concepto más importante es, precisamente, el concepto de función del cual deriva su nombre que constituye la base para la elaboración de soluciones [8]. Este concepto de función puede definirse como un micro programa que alcanza un micro objetivo y que, al formar parte de un programa, junto con otras funciones permite lograr grandes objetivos. La función es un conjunto definido de funciones, que puede tener nombre o puede ser anónima, que puede estar habilitada para recibir argumentos, ser identificada por un nombre y puede, igualmente, retornar valores sin tener que acudir a la memoria del computador como intermediario para definir sus estados de almacenamiento [2]. Lo verdaderamente importante en la programación funcional es la manera como el cuerpo de las funciones interactúa para lograr un resultado que se constituye en el aporte de cada función en un programa. Desde una óptica muy sencilla, podría decirse que un programa construir sobre los fundamentos del paradigma funcional, consiste en un conjunto de funciones independientes pero, al tiempo, interdependientes en relación con el logro de un determinado objetivo común. La atomización de una solución parte del principio “divide y vencerás” que es un principio de programación según el cual al dividir un gran objetivo a alcanzar en pequeños objetivos, es posible resolver los pequeños objetivos (con funciones) y luego enlazarlos de manera que el gran objetivo original quede resuelto. Es de anotar que resolver cada uno de los pequeños objetivos es mucho más sencillo que resolver el gran objetivo. La solución a esos pequeños objetivos es lo que provee la necesidad de construir funciones y de capitalizar al máximo los resultados de las funciones por encima de las formas posibles de almacenamiento. Una de las potencialidades mayores que tiene la programación funcional es el concepto de recursión. Como recursión, o recursividad, se entiende la propiedad que provee Entre Ciencia e Ingeniería un lenguaje de programación de permitir que una función se llame a sí misma. En términos matemáticos, la recursión se define como la notación a través de la cual se puede definir una función en sus propios términos. Bajo la perspectiva funcional, la recursión se constituye en uno de los mayores recursos con que cuentan las funciones para implementar procesos cíclicos que no queden en “loops” infinitos, sino que, bajo una determinada lógica y siempre de acuerdo a las necesidades algorítmicas, finalice exitosamente retornando los resultados que se requieran como producto del proceso iterativo. En este artículo se ha utilizado el lenguaje Scheme en el entorno DrRacket por su alta capacidad para procesar datos, por la facilidad de implementar procesos recursivos eficientes y por la simplicidad que provee en el manejo de datos numéricos. Por su parte, cuando se habla del paradigma de programación imperativa se hace referencia a uno de los modelos computacionales más estables y que han tenido mayor maduración debido a la cantidad de lustros que han permitido su refinamiento y que partieron de los fundamentos que brindaran Alan Turing (1912-1954) y John von Neumann (1903-1957) [1]. El paradigma de programación imperativo se fundamenta en el concepto de máquina de estados, de acuerdo a la cual, un programa se reduce a una cantidad de instrucciones que posibilitan la modificación de los contenidos de la memoria de un computador, que es el espacio físico - lógico donde se almacenan dichos contenidos en formato binario. La programación imperativa basa sus implementaciones en la utilización de tres esquemas conocidos como estructuras básicas, razón por la cual este paradigma también se conoce como paradigma imperativo. Estas tres estructuras, que son el fundamento para la implementación de soluciones, son las secuencias de instrucciones, los condicionales y los ciclos. Las secuencias de instrucciones se pueden describir como instrucciones escritas y ubicadas bajo un determinado orden que, en las condiciones que describa el problema determinado, es inalterable para la correcta ejecución de la solución (Van Roy, 2008). Una instrucción se ejecuta completamente sólo después de que la anterior instrucción se ha ejecutado completamente y antes de que se comience a ejecutar la siguiente instrucción. Por su parte, la estructura condicional, permite la escogencia de uno de dos caminos lógicos dependiendo de una condición que afecte la decisión y que tiene relación con ambos caminos. La condición normalmente se escribe en términos de operadores aritméticos, relacionales y booleanos. Los ciclos, la tercera estructura básica, posibilitan repetir la ejecución de un conjunto de instrucciones, una cantidad determinada de veces dependiendo, tal como la segunda estructura, de una condición que la regule. Con la programación imperativa se busca que los programadores utilicen al máximo, las potencialidades de las estructuras, de forma que, con su combinación, anidamiento y utilización, se puedan implementar soluciones que satisfagan objetivos computables. 87 Desde la más simple de las definiciones, un programa basado en el paradigma imperativo se puede concebir como un conjunto de instrucciones independientes que buscan alcanzar un objetivo que, a su vez, satisface un enunciado y que se fundamenta en la interacción y modificación de los contenidos del estado actual de la memoria del computador. Cuando se aprovechan las estructuras básicas de este paradigma es posible llegar a establecer estándares en la construcción de algoritmos de manera que diferentes lógicas aproximen los elementos de juicio que intervinieron en su planteamiento inicial. De la buena utilización de la estructuras y del diseño que se la haga al programa, dependerá el tiempo que se necesite para corregir errores lógicos y que el mantenimiento del código sea eficiente. La programación imperativa se sirve del concepto de función para lograr programas fáciles de mantener, de modificar y de actualizar, toda vez que las funciones permiten atomizar el objetivo general y construir la solución a partir de objetivos menores que, enlazados, resuelven el problema que se haya planteado [9]. En la programación imperativa la metodología “divide and conquer” es, igualmente, efectiva que en la programación funcional pues permite, en ambos paradigmas, construir soluciones que sean coherentes, simples y entendibles, las tres condiciones que se requieren para que un programa logre el objetivo por el mejor de los caminos. Esta estrategia es el camino para que la solución se atomice a partir del buen uso de las estructuras. Se ha utilizado el lenguaje C++ en su arista imperativa para la construcción, validación y puesta a punto de la solución planteada, para detectar y hallar ternas pitagóricas, por considerarse el concepto de función, un lenguaje de programación flexible, fácil de codificar y muy fácil de implementar a la luz de las estructuras básicas. Tanto el entorno DevC++ para la codificación de lenguaje C++ como el entorno DrRacket para la codificación de lenguaje Scheme, se consideran suficientemente sólidos en lo sintáctico, veloces en lo compilativo y eficientes en la ejecución de los programas. Cabe anotar que ambos lenguajes permiten la programación orientada a objetos que constituye el tercer paradigma y cuyo alcance va más allá de los objetivos del presente artículo. El problema que se ha escogido para implementar dos soluciones y compararlas bajo determinados criterios, es el que permite encontrar ternas pitagóricas en un rango determinado. Una terna pitagórica es aquel trío de números que cumple con el teorema de Pitágoras según el cual “la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa” [10] que escrito en términos matemáticos correspondería a a2+b2=c2 para valores enteros a, b y c como medida de los catetos y de la hipotenusa. Cabe anotar que en la igualdad expuesta, los catetos estarían identificados por las letras a y b y la hipotenusa estaría identificada por la letra c. en el ámbito puramente matemático, el problema consiste en encontrar ternas de números enteros (también conocidos como naturales) que satisfagan la ecuación base de este teorema. Es de anotar, igualmente, que este teorema se hace efectivo en los triángulos rectángulos o sea aquellos en los cuales uno de sus ángulos internos es igual a 90º. La idea de este artículo es establecer elementos de juicio comparativos que, a partir de una solución funcional y de una solución imperativa, permitan develar ventajas y desventajas de cada uno de los paradigmas. III. Metodología A. Descripción Dado que el objetivo de este artículo es establecer criterios comparativos entre dos soluciones algorítmicas a un mismo problema, se presentará la lógica de construcción de ambas soluciones y, posteriormente, los comparativos se harán sobre la codificación de cada una a la luz de un paradigma y utilizando como medio un lenguaje de programación. Tanto para la solución funcional como para la solución imperativa, se han planteado las diferentes variantes de validación que se necesitan para realizar el proceso de búsqueda y hallazgo de las ternas pitagóricas, según lo establecido en la definición. La lógica de solución parte de las mismas bases y por ello el rango de posibles valores a validar está dado por la tabla I. Tabla I Posibles Valores A Validar La tabla I pareciera sugerir que se requieren dos procesos cíclicos (uno dentro de otro), de manera que se pueda hacer el recorrido apropiadamente. En un proceso cíclico externo deberá recorrerse desde 1 hasta n (de 1 en 1) y, dentro de este ciclo deberá existir un proceso cíclico interno que recorra igualmente los valores desde 1 hasta n (también de 1 en 1). Algorítmicamente, la secuencia de los números presentados se puede resumir de la siguiente forma: Para a = 1 hasta n (1) Para b = 1 hasta n (1) Validar a2+b2 La validación de la expresión a2+b2, que se constituye en la esencia del problema, se puede realizar de dos formas de manera que cada una esté asociada a cada paradigma tal como lo presenta a continuación. Solución Funcional Para a = 1 hasta n (1) Para b = 1 hasta n (1) Universidad Católica de Pereira 88 Calcular el resultado de a2+b2 Obtener la raíz cuadrada de a2+b2 Obtener parte entera de raíz cuadrada obtenida Compararla con la raíz como tal Si son iguales Mostrar la terna pitagórica Si no lo son Continuar con la siguiente combinación Fin Si Fin Para Fin Para Solución Imperativa a=1 Mientras a<=n b=1 Mientras b<=n Obtener resultado de a2+b2 Almacenar raíz cuadrada de a2+b2 en variable entera Almacenar raíz cuadrada de a2+b2 en variable real Comparar los dos valores obtenidos Si estos dos valores son iguales Desplegar en pantalla la terna pitagórica Si no son iguales Continuar con la siguiente combinación Fin Si b=b+1 Fin Mientras a=a+1 Fin Mientras La tabla II muestra la relación entre la lógica funcional y la lógica imperativa en la parte medular de este algoritmo. tabla ii comparación parte medular En esta parte, desde lo funcional (debido a que se manejan procesos y resultados de funciones) se acude a la obtención del resultado de la raíz cuadrada de la expresión algebraica y luego se compara con la parte entera de la raíz cuadrada obtenida. En la parte imperativa (aprovechando que se maneja el concepto de tipos de datos) se almacena el resultado de la raíz cuadrada de la expresión tanto en una variable entera como en una variable real y luego se comparan los dos valores. En ambos casos, tanto en lo funcional como en lo imperativo, la verificación de igualdad entre los dos valores obtenidos (sea por vía de los resultados de funciones o sea por vía de los valores almacenados en variables de tipo diferente) se constituye en la confirmación Entre Ciencia e Ingeniería de la existencia de una terna pitagórica en la cual los valores a y b, que conforman el valor de los catetos, están definidos por los ciclos y el valor de la hipotenusa está definida por la raíz cuadrada de la raíz cuadrada de la expresión a2+b2. B. Aplicación Tal como se ha planteado, para la implementación de la solución funcional se acudió al lenguaje Scheme IDE DrRacket versión 6.1 y para la implementación de la solución imperativa se acudió al lenguaje C++ IDE DevC++ Versión 5.8.0. Ambos son entornos integrados de desarrollo para Sistema Operativo Windows. Se presentan a continuación la solución funcional y la solución imperativa. Solución Funcional ; PROGRAMA QUE ENCUENTRA TERNAS ; PITAGÓRICAS EN EL RANGO 1 A N PARA UN ; VALOR N DEFINIDO ; Función simple que calcula la suma a^2+b^2 (define (suma a b) (+ (expt a 2)(expt b 2)) ) ; Función simple que confirma la existencia de una terna pitagórica (define (pitagoras a b) (if(= (sqrt(suma a b))(floor(sqrt(suma a b)))) 1 0 )) ; Función simple que despliega resultados (solo ternas) (define (mostrar2 a b) (display “Terna Pitagórica --> (“) (display a) (display “,”) (display b) (display “,”) (display (floor (sqrt (+ (expt a 2)(expt b 2))))) (display “)”) (newline) (newline) ) ; Función simple que despliega resultados (completos) (define (mostrar1 a b) (newline) (display a) (display “^2 = “) (display (expt a 2)) (display “, “) (display b) (display “^2 = “) (display (expt b 2)) (newline) (display (expt a 2)) 89 (display “ + “) (display (expt b 2)) (display “ = “) (display (+ (expt a 2)(expt b 2))) (newline) (display “Raiz Cuadrada de “) (display (+ (expt a 2)(expt b 2))) (display “ = “) (display (floor (sqrt (+ (expt a 2)(expt b 2))))) (newline) (display “Terna Pitagórica --> (“) (display a) (display “,”) (display b) (display “,”) (display (floor (sqrt (+ (expt a 2)(expt b 2))))) (display “)”) (newline) (newline) ) ; Función recursiva (proceso cíclico interno) de búsqueda de números pitagóricos (define (cicloint i j n) (if (> j n) 0 (begin (if ( = (pitagoras i j) 1 ) (mostrar1 i j) ) (cicloint i (+ j 1) n) ) ) ) ; Función recursiva (proceso cíclico externo) de búsqueda de números pitagóricos (define (cicloext i j n) (if (> i n) 0 (begin (cicloint i j n) (cicloext (+ i 1) j n) ) ) ) ; Función inicial (define (inicio i j n) (cicloext i j n) ) ; Llamado inicial (100 es el valor definido para n) (inicio 1 1 100) Solución Imperativa // Programa que encuentra ternas pitagóricas en el // rango 1 a n para un valor n definido // Inclusión de librerías #include <iostream> #include <conio.h> #include <math.h> using namespace std; // Función que calcula la suma a^2+b^2 int suma_factores(int a, int b) { // Inicio función suma_factores int r; // Variable local r=pow(a,2)+pow(b,2); // Suma de cuadrados return(r); // Retorna suma de cuadrados } // Fin función suma_factores // Función que confirma la existencia de una terna // pitagórica int respuesta(int a, int b) { // Inicio función respuesta float rf; // Variable local real int ri; // Variable local entera // raiz cuad (real) de la suma de cuadrados rf=sqrt(suma_factores(a,b)); // raiz cuad (entera) de la suma de cuadrados ri=sqrt(suma_factores(a,b)); if(rf==ri) // si son iguales return(1); // entonces retorne 1 (Verdadero) return(0); // Sino, retorne 0 (Falso) } // Fin función respuesta // Función que despliega resultados (solo ternas) int muestraterna2(int a, int b) { // Inicio función muestraterna2 int c; // Variable local Universidad Católica de Pereira 90 // Almacena parte entera raiz de suma de cuadrados int n=15; // Valor de n (rango de 1 a n) c=int(sqrt(suma_factores(a,b))); ciclos(n); // Llamado a la función ciclos cout<<”\nTerna Pitagórica --> (“; // Título getche( ); // Pausa para ver resultados // Muestra la terna formato (a,b,c) } // Fin función principal cout<<a<<”, “<<b<<”, “<<c<<”)\n”; } Las tablas IIIA y IIIB presentan una descripción breve // Fin función muestraterna2 de las funciones que se han codificado en cada una de las soluciones. // Función que despliega resultados // (formato completo) tabla iii a. descripcion de funciones – paradigma funcional int muestraterna1(int a, int b) { // Inicio funcion muestraterna1 int c; // Variable local // Muestra cuadrados cout<<”\n”<<a<<”^2 = “<<pow(a,2); cout<<”, “<<b<<”^2 = “<<pow(b,2); // Suma de cuadrados cout<<”\n”<<pow(a,2)<<” + “<<pow(b,2)<<” = “; // Obtiene la raiz cuadrada de la suma de cuadrados c=pow(a,2)+pow(b,2); cout<<c<<”\n”; cout<<”Raiz Cuad de “<<c<<”=”<<sqrt(c) <<”\n”; cout<<”Terna Pitagórica --> (“;// Título // Muestra terna cout<<a<<”, “<<b<<”, “<<sqrt(c)<<”)\n\n”; } tabla iii b. descripcion de funciones - paradigma imperativo // Fin función muestraterna1 // Función que establece los ciclos de validación int ciclos(int n) { // Inicio función ciclos int i, j; // Variables locales i=1; // Valor inicial ciclo externo while(i<=n) // Condición ciclo externo { // Inicio ciclo externo j=1; // Valor inicial ciclo interno while(j<=n) // Condición ciclo interno { // Inicio ciclo interno // Si se cumple el teorema de Pitágoras if(respuesta(i,j)) // Muestre la terna pitagórica muestraterna1(i,j); IV. Resultados j++; // Incremente índice ciclo interno } // Fin ciclo interno Las tablas IV A y IV B muestran los resultados obtenidos i++; // Incremente índice ciclo externo en los programas desarrollados para encontrar las ternas } // Fin ciclo externo pitagóricas. return(1); // Al final, retorne 1 } // Fin función ciclos // Función principal int main( ) { // Inicio función principal Entre Ciencia e Ingeniería 91 tabla iv a. resultados obtenidos V. Discusión – programa funcional El espíritu del presente artículo radica en establecer algunos criterios que permitan la comparación de los programas presentados como soluciones al objetivo planteado, de manera que se puedan correlacionar las soluciones en cada paradigma, a la luz de la lógica, de los recursos sintácticos y de las posibilidades que tanto el paradigma como el lenguaje proveen. La tabla VII muestra la forma como se ha implementado la función para calcular el resultado de la expresión a2+b2 que es la base para la demostración del teorema de Pitágoras, ya que ésta es el resultado de sumar el valor de los catetos elevados cada uno al cuadrado. Posteriormente es a este valor, al cual se le va a obtener la raíz cuadrada y de esa forma podremos verificar la existencia de una terna pitagórica. Luego la expresión a2+b2, su validación correcta y su apropiada generación de resultado es el centro de toda la demostración matemática y de los programas que se presentan en este artículo. Tabla IV B-. Resultados Obtenidos – Programa Imperativo En su versión funcional, esta función acude a la función de librería expt que retorna el resultado de elevar un valor a una potencia determinada (que en este caso es la potencia 2). El resultado de sumar el cuadrado de cada uno de los valores recibidos como argumentos es el valor que retorna esta función que aprovecha dicho cálculo para retornarlo sin variables intermedias que lo almacenen. Por su parte en la versión imperativa se hace muy útil, aunque pudiera no ser estrictamente necesario, que dicho resultado se almacene en una variable local para retornarse por parte de la función. Se ha utilizado en esta versión la función pow que se encuentra en la librería math.h que es la que contiene, en lenguaje C++, las funciones matemáticas. Es de anotar que en ambas funciones se reciben los mismos valores, en la versión funcional como argumentos y en la versión imperativa como parámetros. Bien puede decirse que, a pesar de basarse en paradigmas diferentes, son dos funciones simples que contienen las similaridades del retorno, pues en ambas funciones son equivalentes, sin embargo acuden a funciones diferentes y la función como tal, mantiene la filosofía que caracteriza cada paradigma: priorizar el proceso y priorizar el almacenamiento para los paradigmas funcional e imperativo, respectivamente. tabla v. funcion que calcula la suma Paradigma Funcional Como puede notarse en la tabla IV A y IV B, los resultados son similares vistos desde la óptica del usuario, es decir, desde la persona que ejecuta el programa para obtenerlos. La diferencia fundamental está en la manera como se concibió la lógica para aprovechar cada uno de los recursos que cada paradigma provee y, de esa forma, encontrar una solución efectiva al problema planteado. Imperativo Código a2+b2 ; Función simple que calcula la suma a^2+b^2 (define (suma a b) (+ (expt a 2)(expt b 2)) ) // Función que calcula la suma a^2+b^2 int suma_factores(int a, int b) { // Inicio función suma_factores int r; // Variable local r=pow(a,2)+pow(b,2); // Suma de cuadrados return(r) // Retorna suma de cuadrados } // Fin función suma_factores En la tabla VI se presenta la función que confirma la existencia de una terna pitagórica. En la versión funcional lo que se hace es comparar el resultado de la raíz cuadrada Universidad Católica de Pereira 92 de la suma de los cuadrados con el valor entero de dicha raíz cuadrada. Si estos valores son iguales, significa que se ha encontrado una terna pitagórica. Para confirmarlo se retorna un valor 1 como expresión de un valor lógico Verdadero y para negarlo se retorna un valor 0, como expresión de un valor lógico Falso. Es de anotar que se pudo haber acudido a la utilización de las constantes booleanas #t (para un valor lógico Verdadero) y #f (para un valor lógico Falso) sin embargo, para mantener alguna relación con la codificación en el paradigma imperativo, se optó por utilizar el mismo mecanismo de confirmación (Verdadero y Falso) en ambas funciones equivalentes. Por su parte, en la versión imperativa, si bien es cierto que la función recibe los mismos parámetros (llamados argumentos en la versión funcional) también lo es que la lógica es un poco diferente. En esta versión se aprovecha el concepto de tipo de dato que es completamente ausente en la versión funcional. A la luz de este concepto se declaran dos variables locales: una de tipo real llamada rf (como para indicar que es la respuesta tipo float) y otra de tipo entero llamado ri (para indicar que es la respuesta tipo int). En cada una de estas variables se almacena el mismo valor que corresponde al resultado de calcular la raíz cuadrada de la suma de los cuadrados de los catetos (que para el caso corresponden a los valores a y b recibidos como parámetros). El hecho de que el mismo valor se almacene en una variable entera y en una variable real, permite que posteriormente se comparen estos resultados. Si son iguales, significa que se ha encontrado una terna pitagórica puesto que solo serán iguales cuando el resultado de la raíz cuadrada de la suma de los cuadrados sea un valor entero, dado que solo así se podrán ignorar los decimales que pudieren acompañar el valor obtenido. Finalmente, y en consonancia con la versión funcional, se retorna un valor 1 (Verdadero) o 0 (Falso) dependiendo de que se cumpla o no el condicional que pregunta si el valor entero es igual al valor real. tabla vi. función que confirma la existencia de una terna pitagórica Entre Ciencia e Ingeniería En la tabla VII se presenta el conjunto de instrucciones que generan y controlan los procesos cíclicos que se explicaron en la tabla I. En estas dos versiones sí son notorias las características de cada uno de los paradigmas. En la versión funcional se acude a una alta utilización del concepto de recursión. Para generar los ciclos que se necesitan, se construye primero una función recursiva llamada cicloext que controla el 1º valor que se va a utilizar en el proceso validatorio. Desde esta función se invoca a la función cicloint, que también es otra función recursiva, que genera los valores correspondientes al otro de los catetos desde una posición lógica subordinada al llamado y control de la función cicloext. En caso de que se encuentre una terna pitagórica se procede a mostrar el resultado de la terna hallada. Para este fin se han construido dos funciones de salida, una que muestra los resultados concretos y la otra que muestra adicionalmente el proceso que confirma la existencia de dicha terna. La solución imperativa es comparativamente sencilla dado que los dos procesos cíclicos se han anidado utilizando las estructuras cíclicas que provee el ciclo while y que permite que en una sola función podamos tener control de ambas variables, la que representa un cateto y la que representa el otro cateto, y de todo el proceso de manera condensada. En esta función se han declarado dos variables locales, una de ellas servirá como índice controlador del ciclo externo y la otra servirá como índice controlador del ciclo interno, ambas gobernadas por el mismo valor tope. Al igual que en la solución funcional, en caso de que se encuentre una terna pitagórica entonces se muestran los resultados con cualquiera de las dos funciones que para tal fin se han previsto: una que presenta los resultados de forma simplificada y la otra que muestra, además de los resultados, el proceso que permite confirmar la demostración de la terna pitagórica. 93 tabla vii funciones ciclicas tabla viii. funcion principal Es de anotar que este programa se ha realizado sin utilizar recursos gráficos de usuario que permitan una interfaz gráfica un poco más amable para el usuario pues se ha desarrollado para aprovechar los recursos sintácticos, lógicos y tecnológicos de cada paradigma. VI. Conclusiones • Para concederle significado a los conceptos que se derivan del estudio de la programación de computadores, es muy importante buscar ejemplos que tengan relación práctica con el conocimiento y el área de las matemáticas son un excelente espacio de donde se puede acceder a diversos problemas que cumplen con este objetivo. Finalmente la tabla VIII presenta lo que podría llamarse, en cada solución, el llamado principal (para la versión funcional) o la función principal (para la versión imperativa). En la versión funcional se hace un llamado enviando un valor determinado como tope para las búsquedas de las ternas pitagóricas. Ese llamado permite invocar una función que, a su vez, invoca a la función que controla el ciclo externo recursivo que se ha implementado. En la parte imperativa, la función principal, también conocida como main( ), tiene declarada una variable local que es la variable en al cual se almacena el tope de evaluación para los posibles valores de los catetos, se invoca a la función ciclos (que implementa en una sola función los dos ciclos anidados que, en la versión funcional, requiere dos funciones recursivas separadas) y finalmente se acude a una instrucción para esperar la verificación del resultado. • Se constituye en un reto para los docentes de programación y de matemáticas, a nivel universitario, permitir que los estudiantes establezcan ese nexo de significado entre lo teórico y lo práctico y proveerles de problemas que puedan ser resueltos con las herramientas básicas que la programación de computadores provee. • Tanto la programación funcional como la programación imperativa, cada una con sus características, ventajas y limitaciones, son excelentes fuentes para construir soluciones a problemas de las matemáticas. • Aunque en este artículo se ha acudido a dos herramientas específicas (DrRacket y DevC++), no se descarta que otras soluciones puedan ser implementadas con mayor eficiencia desde diferentes lenguajes y diferentes entornos. • Es de gran importancia que los estudiantes de las áreas de programación reciban tanto el conocimiento fundamental como su respectiva instancia tecnológica y su aplicación práctica para que el conocimiento no quede ad portas del olvido sino que pueda ubicarse en la memoria a largo plazo producto de su aplicación en situaciones prácticas. • El concepto de función simplifica la construcción de soluciones tanto cuando se utiliza el paradigma funcional a través de algún lenguaje de programación como cuando se usa el paradigma imperativo. Universidad Católica de Pereira 94 • Vale la pena resaltar que las funciones de interfaz son altamente similares en ambas soluciones y que las funciones operativas o de cálculo aprovechan al máximo las características de cada paradigma para posibilitar la implementación de una solución que, a la luz de cada paradigma, se aproxime a la ideal Referencias [1] [2 [3 [4] [5] [6] [7] [8] [9] [10] Trejos Buriticá, O. I. (2012). Aprendizaje en Ingeniería: un problema de comunicación. Pereira (Colombia): Tesis Doctoral - Universidad Tecnológica de Pereira. Van Roy, P. (2008). Concepts, Techniques and Models of Computer Programming. Estocolmo: Université catholique de Louvain. Bruner, J. S. (1969). Hacia un teoría de la instrucción. Ciudad de México: Hispanoamericana. Ausubel, D. (1986). Sicología Educativa: Un punto de vista cognoscitivo. Ciudad de México. Trillas. Bruner, J. S. (1991). Actos de significado. Madrid: Alianza Editorial. Paz Penagos, H. (2014). Aprendizaje autónomo y estilo cognitivo: diseño didáctico, metodología y evaluación. Revista Educación en Ingeniería, 9(17), 53-65. Paz Penagos, H. (2009). How to develop metacognition through problem solving in higher education? Revista de Ingeniería e Investigación, 31(1), 75-80. Felleisen, M. et al. (2013). How to design programs (2ª Ed). Boston. MIT Press Trejos Buriticá, O. I. (2006). Fundamentos de Programación. Pereira: Papiro. Sparks, J. (2008). The Pythatorean Theorem. Bloomington (Indiana): AuthorHouse. Omar Ivan Trejos Buriticá. Ingeniero de Sistemas. Especialista en Instrumentación Física. Magister en Comunicación Educativa. PhD en Ciencias de la Educación, actualmente es docente de tiempo completo de la Universidad Tecnológica de Pereira. Entre Ciencia e Ingeniería 95 Entre Ciencia e Ingeniería, ISSN 1909-8367 Año 9 No. 18 - Segundo Semestre de 2015, página 95 - 101 Modelado de la energía de interacción de nanopartículas de sílice preparadas en microemulsiones1 Modeling the interaction energy of silica nanoparticles prepared in microemulsions D.F. Tirado, D. Acevedo y A.P. Herrera Recibido Junio 20 de 2015 – Aceptado Septiembre 23 de 2015 Resumen— Se modeló la energía de interacción de nanopartículas de sílice preparadas en microemulsiones de fase orgánica, usando la teoría DLVO para partículas esféricas de igual tamaño. Los surfactantes comerciales seleccionados fueron la sal sódica del sulfosuccinato de bis-(2-etilhexilo) (AOT) y Tritón X-100 [p-(1, 1, 3,3-tetrametilbutil) fenílico] (TX100). Los sistemas coloidales estudiados fueron ciclohexano/ AOT, ciclohexano/TX-100, isooctano/AOT, e isooctano/TX100. Las curvas de energía total de interacción se construyeron para varios diámetros de nanopartículas en función de su distancia de separación. Los resultados fueron comparados con la energía termal del sistema, encontrando mayor estabilidad coloidal para el modelo de nanopartículas de sílice cubiertas con el surfactante TX-100 y suspendidas en ciclohexano. Por último se esperaría que la combinación de los compuestos químicos ciclohexano/TX-100 permita la formación de micelas inversas que sirvan tanto para la formación de nanopartículas de sílice proporcionando un medio para el control de tamaño, así como un sistema con buena estabilidad coloidal. Palabras clave— estabilidad coloidal, nanopartículas, sílice, microemulsiones, teoría DLVO. 1 Producto derivado del proyecto de Investigación “Análisis de la Estabilidad Coloidal de Nanopartículas Sintetizadas por el Método de Ultrasonido”, perteneciente al Grupo de Investigación Nanomateriales Multifuncionales, adscrito a la Facultad de Ingeniería, Programa de Ingeniería Química de la Universidad de Cartagena. D.F. Tirado, Investigador Grupo de Investigación NUSCA, MS. (c) Ingeniería Ambiental, Universidad de Cartagena, Cartagena (Colombia); email: [email protected] D. Acevedo, Ph.D Ingeniería de Alimentos, Docente del Programa de Ingeniería de Alimentos, Universidad de Cartagena, Cartagena (Colombia); email: [email protected] A. Herrera, Ph.D Ingeniería Química, Docente del Programa de Ingeniería Química, Universidad de Cartagena, Cartagena (Colombia); email: [email protected] Abstract— the interaction energy of silica nanoparticles prepared in microemulsions of organic phase was modeled, using the DLVO theory for spherical particles of equal size. For this purpose, the effect of the organic solvent and the surface active agent (surfactant) used for the coating of the nanomaterials was evaluated. The selected commercial surfactants were the sodium bis-(2-ethylhexyl) sulfosuccinate (AOT) and the p-(1, 1, 3, 3-tetramethylbutyl) phenyl (TX-100). The colloidal systems studied were cyclohexane/AOT, cyclohexane/TX-100, isooctane/AOT, and isooctane/TX-100. Curves of total energy contribution were analyzed considering the interaction energy of van der Waals attraction and repulsion energy due to osmotic layer covering surfactant molecules to the nanoparticles. From these analyzes the curves of total energy for several diameters of nanoparticles as a function of their separation distance were built. These results were compared with the thermal energy of the system, indicating greater stability for the colloidal silica nanoparticles model covered with the TX-100 surfactant and suspended in the organic medium cyclohexane. Thus, it could be expected that the combination of the chemical compounds cyclohexane/TX-100 allow the formation of reverse micelles, which serve for the synthesis of silica nanoparticle providing control size, as well as a system with a good colloidal stability. Key words— colloidal stability, microemulsions, DLVO theory. nanoparticles, silica, I. Introducción L a nanotecnología está presente en diferentes campos científicos como las ciencias físicas, químicas, biológicas y de ingeniería, donde se están desarrollando nuevas técnicas para el control de átomos y moléculas [1]. Las nanopartículas en la nanotecnología se definen como Universidad Católica de Pereira 96 pequeños objetos que se comportan como una unidad completa en términos de sus propiedades de transporte y aplicación potencial. Las nanopartículas de la naturaleza ya sean simples o compuestas son materiales que pueden ser utilizados en numerosas aplicaciones físicas, biológicas, biomédicas y farmacéuticas [2]. En el presente trabajo se modeló la estabilidad coloidal de nanopartículas de sílice a partir de la energía de interacción, para un sistema de micelas inversas compuestas por un solvente orgánico y un surfactante con terminaciones hidrofílicas e hidrofóbicas. Para este propósito, se utilizó la teoría DLVO (llamada así por Derjaguin, Landau, Verwey y Overbeek) para calcular la energía de interacción total entre pares de partículas como una función de su tamaño y distancia de separación [3]. Este modelo considera que las nanopartículas de sílice tienen forma esférica y se encuentran cubiertas por una monocapa de moléculas del surfactante, cuya cadena hidrofóbica se extiende completamente al medio orgánico solvente, existiendo así una buena afinidad química entre las moléculas del surfactante y las del solvente. La energía de interacción total (Φtotal) entre dos nanopartículas se puede calcular a partir de la contribución de las fuerzas de atracción y repulsión [4]. Entre estas, se destaca la fuerza de atracción de van der Waals (ΦvdW), la cual es dependiente del radio de las partículas (Rp), la distancia de separación centro a centro (d), y la constante de Hamaker (A), representando éste último parámetro la atracción partícula-solvente-partícula [5, 6]. Por otra parte, las fuerzas de repulsión consideran principalmente la contribución osmótica (Φosm) proporcionada por las moléculas de surfactantes que rodean a las nanopartículas. El principio de repulsión se basa en el efecto de impedimento estérico que ocurre cuando dos nanopartículas se aproximan, ocasionando el solapamiento de las cadenas de surfactantes y por ende la repulsión de las partículas al no poder ocupar dos moléculas de surfactante un mismo espacio [4]. La energía de interacción total del sistema se representa entonces como la suma de las contribuciones de van der Waals y osmóticas, las cuales pueden modelarse como una función del tamaño de las partículas y su distancia de separación, tal como lo describen las ecuación (1) a (5): (1) (2) (4) (5) Donde el subíndice 131 en la constante de Hamaker se refiere la atracción partícula-solvente-partícula, representado por los términos A11 (interacción partícula-partícula) y A33 (interacción entre dos moléculas de solvente). En adición, el componente de repulsión osmótica (Φosm) depende de las propiedades termodinámicas del sistema y las características físico-químicas de las moléculas de surfactante y solvente, tales como el volumen molecular del solvente (υsolv), la fracción de volumen ocupado por la molécula de surfactante (ϕ), la temperatura del sistema (T), la constante de Boltzmann (KB=1.38x10-23JK-1)), la longitud de la cadena de surfactante (l), la distancia de separación partícula-partícula (h), el parámetro de interacción Flory-Huggins (χ), el volumen molar del solvente (υ3 υ3), la constante de los gases ideales (R) y el parámetro de solubilidad de Hildebrand (δi) [5]. Las nanopartículas de sílice (SiO2), están siendo altamente utilizadas en el campo biológico, como medios para producir biosensores, bioimágenes, dispositivos para el diagnóstico de enfermedades e incluso para encapsulación y liberación de fármacos. Este tipo de aplicaciones son posibles teniendo en cuenta que las nanopartículas de sílice son biológicamente inertes, estables y biocompatibles; además la química de las superficies de este tipo de materiales está tan bien documentada desde el punto de vista de reacciones químicas, que es posible realizar modificaciones usando precursores organosilanos que permitan unir de manera covalente cualquier otro grupo funcional a la superficie de las nanopartículas [7]. El tamaño promedio obtenido en algunos estudios para las nanopartículas de sílice varía entre los 25 y 200nm [7, 8, 9]. Se puede modificar el sistema coloidal con el fin de aumentar o disminuir la barrera energética que afecta de manera directa, la estabilidad del sistema. Varios métodos pueden ser usados para este propósito, tales como cambios de solvente y agente tensoactivo utilizado para formar las micelas inversas [7]. Teniendo en cuenta lo anterior, esta investigación tuvo como objetivo principal modelar la energía total de interacción entre nanopartículas de sílice preparadas en microemulsiones para determinar la estabilidad coloidal del sistema según las predicciones de la teoría DLVO. Para esto, se variaron los tipos de solventes orgánicos y agentes tensoactivos que pueden utilizarse en la formación de las nanopartículas por el método de micelas inversas. II. Metodología (3) Entre Ciencia e Ingeniería A. Materiales seleccionados Los solventes orgánicos seleccionados fueron Ciclohexano e Isooctano; y los agentes tensoactivos 97 fueron la sal sódica de sulfosuccinato de bis-(2-etilhexilo) (AOT) y p-(1, 1, 3,3-tetrametilbutil) fenílico (TX-100). Estos compuestos químicos fueron escogidos teniendo en cuenta trabajos previos reportados para la síntesis de nanopartículas por el método de micelas inversas [5, 7]. Los sistemas coloidales estudiados fueron Ciclohexano/AOT, Ciclohexano/TX-100, Isooctano/AOT e Isooctano/TX-100. Se analizaron las curvas de contribución de energía total de interacción y las curvas de energía total de interacción en función de la distancia de separación para varios diámetros de partícula. Todas las simulaciones fueron desarrolladas a una temperatura de 25°C (298,15K). Para este modelo se escogieron nanopartículas de sílice con diámetro de partícula de 30nm, 50nm y 100nm, que son los valores promedio reportados en algunos estudios para las nanopartículas de sílice [7, 8, 9]. B. Fuentes de información Los datos necesarios en el modelo DLVO para cada sistema coloidal fueron adquiridos de las fuentes mostradas en la Tabla I. Tabla I Parámetros Y Fuentes De Información III. Resultados Y Discusión A.1. Sistema Ciclohexano/AOT En la Fig. 1, se muestran las contribuciones de las fuerzas de van der Waals y osmóticas a la energía total de interacción para el sistema ciclohexano/AOT, las cuales se calcularon como una función de la distancia de separación entre partículas y el tamaño de las nanopartículas. Con los tamaños de partícula que se observan en la Fig. 1, se evidencia que las interacciones estéricas priman sobre las de van der Waals, lo cual indica que el sistema es estable, al existir impedimento en la unión de las nanopartículas, y por ende evitando su aglomeración y posterior precipitación [12]. A medida que aumentan los tamaños de partículas, se evidencia un aporte de las interacciones de van der Waals, las cuales son responsables de la atracción partícula-partícula. A partir de estos resultados se observó que el punto más bajo de la energía local no alcanza a superar el valor de -1.5KBT, por lo cual puede asumirse que la energía térmica no provoca la aglomeración de nanopartículas para los tamaños evaluados [3]. En la Fig. 2 se aprecian las curvas de energía total de interacción para diámetros de partículas comprendidos entre 200 y 700nm. En la Fig. 2, se observa que partículas con tamaños superiores a 500nm exhiben una pobre estabilidad coloidal, la cual puede llevar a la precipitación de las nanopartículas del medio de suspensión [5]. Sin embargo, este es un diámetro de nanopartícula muy grande y poco alcanzado en los métodos de síntesis por micelas inversas [8], [7], [9]. A. 2. Sistema Ciclohexano/TX-100 Las curvas de energía total de interacción y las contribuciones de atracción y repulsión del sistema Ciclohexano/TX-100 (Fig. 3 y 4), tienen similar comportamiento a las curvas obtenidas para el sistema Ciclohexano/AOT para el rango de tamaños de nanopartículas de sílice estudiados; aunque se evidencia que el nuevo surfactante ensayado aumenta levemente la estabilidad coloidal del sistema [16]. El TX-100 presenta una cadena carbonada mayor al AOT [17], y los tensoactivos con cadenas hidrocarbonadas largas presentan mayores estabilidades con solventes polares, como los usados en el presente estudio. Estas cadenas afectan directamente los parámetros de interacción Florry-Huggins, trayendo consigo mejores interacciones surfactante-solvente, representado en valores menores a 0,5 de este parámetro [14]. Por ende, el mayor carácter hidrofóbico del agente tensoactivo TX-100, debido a la mayor longitud de cadena, incrementan la afinidad de la cadena del tensoactivo con el solvente usado, y por ende la mayor estabilidad de la micela [16]. Universidad Católica de Pereira 98 Fig. 1. Contribuciones a la energía total de interacción de nanopartículas de sílice con diámetro de partícula de a) 30nm, b) 50nm y c) 100nm. Sistema Ciclohexano/AOT. Figura 3. Contribuciones a la energía total de interacción de nanopartículas de sílice con diámetro de partícula de a) 30nm, b) 50nm y c) 100nm. Sistema Ciclohexano/TX-100. Fig. 2. Curva de energía total de interacción para diámetros entre 200 y 700nm. Sistema Ciclohexano/AOT. Fig. 4. Curva de energía total de interacción para diámetros entre 200 y 700nm. Sistema Ciclohexano/TX-100. Entre Ciencia e Ingeniería 99 A. 3. Sistema Isooctano/AOT En la Fig. 5, se aprecian las contribuciones a la energía total de interacción de nanopartículas de sílice con diámetro de partícula de 30nm, 50nm y 100nm para el sistema Isooctano/AOT. Se evidencia que el sistema coloidal escogido presentó más contribuciones atractivas con respecto a los sistema Ciclohexano/AOT y Ciclohexano/ TX-100, lo cual podría indicar que el solvente Ciclohexano es el responsable de otorgarle mayor estabilidad coloidal al sistema de nanopartículas de sílice [18] y que además el sistema funciona aún mejor con el TX-100. La curva de energía total de interacción para diámetros entre 50nm y 350nm en el sistema Isooctano/AOT (Fig. 6), indican que la estabilidad coloidal se pierde cuando las nanopartículas de sílice alcanzan un diámetro de partícula de 250nm. Este tamaño, sigue siendo muy grande para nanopartículas de este tipo, aunque es menor comparado a los sistemas que involucran al Ciclohexano como solvente, lo cual es un indicio del mejor comportamiento coloidal del solvente Ciclohexano para las nanopartículas de sílice [5, 7]. A. 4. Sistema Isooctano/TX-100 Las Fig. 7 y 8, indican los mismos puntos bajos de energía local (-1.5KBT) para los sistemas Isooctano/AOT e Isooctano/TX-100, pero con diferente recorrido en las curvas estéricas, lo cual da una muestra de un pequeño aporte del nuevo surfactante usado. Lo anterior, concuerda con el sistema anterior, indicando que el mayor carácter hidrofóbico del agente tensoactivo TX-100, mejora la estabilidad del sistema coloidal [17, 19]. IV. Conclusiones Los resultados de esta investigación señalan que la mayor estabilidad coloidal para el sistema de nanopartículas de sílice se da cuando este nanomaterial es cubierto con el surfactante TX-100 y suspendidas en el solvente orgánico ciclohexano, por lo que se esperaría que la combinación de los compuestos químicos ciclohexano/TX-100 permitan la formación de micelas inversas que sirvan para la formación de nanopartículas de sílice proporcionando un medio para el control de tamaño y un sistema con buena estabilidad coloidal. Fig. 5. Contribuciones a la energía total de interacción de nanopartículas de sílice con diámetro de partícula de a) 30nm, b) 50nm y c) 100nm. Sistema Isooctano/AOT. Agradecimientos Los autores agradecen a la Universidad de Cartagena por la beca otorgada al Ing. Diego Felipe Tirado para realizar sus estudios de Maestría en Ingeniería Ambiental en la Facultad de Ingeniería de dicha Alma Máter. Fig. 6. Curva de energía total de interacción para diámetros entre 50nm y 350nm. Sistema Isooctano/AOT. Universidad Católica de Pereira 100 Referencias Fig. 7. Contribuciones a la energía total de interacción de nanopartículas de sílice con diámetro de partícula de a) 30nm, b) 50nm y c) 100nm. Sistema Isooctano-/TX-100. Fig. 8. Curva de energía total de interacción para diámetros entre 50 y 350nm. Sistema Isooctano/TX-100. Entre Ciencia e Ingeniería [1] K. Margulis-Goshen, and K. Magdassi, Organic nanoparticles from microemulsions: Formation and applications, Current Opinion in Colloid & Interface Science vol. 17, no.5., pp. 290-296, Oct. 2012. [2] M. Ahmad, M. Younus, and M. Ali, Microemulsion method: A novel route to synthesize organic and inorganic nanomaterials: 1st Nano Update, Arabian Journal of Chemistry, vol. 5, no.4. pp. 397–417, Oct. 2012. [3] C. Barrera, A. P. Herrera, N. Bezares, E. Fachini, R. Olayo-Valles, J. P. Hinestroza, and C. Rinaldi, Effect of poly(ethylene oxide)-silane graft molecular weight on the colloidal properties of iron oxide nanoparticles for biomedical applications, Journal of colloid and interface science, vol. 377, no.1., pp. 40-50. Jul. 2012 [4] S. R. Rao, Surface Chemistry of Froth Flotation, Vol. I, New York, Fundamentals Springer Science & Business, Kluwer Academic/ Plenium Publishers, 2013, pp. 15-17. [5] A. Herrera, O. Resto, J. G. Briano, and C. Rinald, Synthesis and agglomeration of gold nanoparticles in reverse micelles, Nanotechnology, vol. 16, no.7., pp. 618-625, Jun. 2005. [6] C. H. Achebe, and S. N. Omenyi, Mathematical Determination of the Critical Absolute Hamaker Constant of the Serum (As an Intervening Medium) Which Favours Repulsion in the Human Immunodeficiency Virus (HIV)-Blood Interactions Mechanism, Proceedings of the World Congress on Engineering Vol II, London, U.K, 2013. [7] N. Jaramillo, C. Paucar, and C. García, Influence of the reaction time and the Triton x-100/Cyclohexane/Methanol/HO ratio on the morphology and size of silica nanoparticles synthesized via sol-gel assisted by reverse micelle microemulsion, Journal of Materials Science vol. 49, no.9, pp. 3400-3406, May. 2014. [8] K. In-Yong, E. Joachim, H. Choi, and K. Kim, K, Toxicity of silica nanoparticles depends on size, dose, and cell type. Nanomedicine: Nanotechnology, Biology and Medicine vol. 11, no.6, pp. 1407–1416. Aug. 2015. [9] M. C. Llinás, and D. Sánchez-García, Nanopartículas de sílice: preparación y aplicaciones en biomedicina, Afinidad vol. 71, no.565, pp. 20-31, Dic. 2014. [10] V. Médout-Marére, A Simple Experimental Way of Measuring the Hamaker Constant A11 of Divided Solids by Immersion Calorimetry in Apolar Liquids, Journal of Colloid and Interface Science, vol. 228, no.2, pp. 434–437, Aug. 2000. [11] S. Eichenlaub, C. Chan, and S. P. Beaudoin, Hamaker Constants in Integrated Circuit Metalization, Journal of Colloid and Interface Science, vol. 248, pp. 389–397, Apr. 2002. [12] J. B. Rosenholm, K. E. Peiponen, and E. Gornov, Materials cohesion and interaction forces, Advances in Colloid and Interface Science, vol. 141, no.(1–2), pp. 48–65, Sep. 2008 [13]T. F. Tadros, Rheology of Dispersions Principles and Applications, Wiley-VCH, United Kingdom, 2011, p. 25. [14] R. Porcel, A. B. Jódar, M. A. Cabrerizo, R. Hidalgo-Alvarez, and A. Martín-Rodríguez, Sequential Adsorption of Triton X-100 and Sodium Dodecyl Sulfate onto Positively and Negatively Charged Polystyrene Latexes, Journal of Colloid and Interface Science, vol. 239, pp. 568–576, Jul. 2001. [15] M. A. La-Scalea, C. M. S. Menezes, and E. I. Ferreira, Molecular volume calculation using AM1 semi-empirical method toward diffusion coefficients and electrophoretic mobility estimates in aqueous solution, Journal of Molecular Structure: THEOCHEM, vol. 730, no.1, pp. 111-120, Oct. 2005. [16] A. R. Mustafina, J. G. Elistratova, O. D. Bochkova, V. A. Burilov, S. V. Fedorenko, A. I. Konovalov, and S. Y. Soloveva, “Temperature induced phase separation of luminescent silica nanoparticles in Triton X-100 solutions,” Journal of colloid and interface science, vol. 354, no.2, pp. 644-649. Feb. 2011. [17] L. P. Singh, S. K. Bhattacharyya, R. Kumar, G. Mishra, U. Sharma, G. Singh, and S. Ahalawat, Sol-Gel processing of silica nanoparticles and their applications. Advances in colloid and interface science, vol. 214, pp. 17-37, Dec. 2014. [18] C. Barrera, A. P. Herrera, and C. Rinaldi, “Colloidal dispersions of monodisperse magnetite nanoparticles modified with poly (ethylene glycol),” Journal of colloid and interface science, 329(1), 107-113, Jan. 2009. 101 [19] A. A. Araújo, E. L. Barros, O. C. Filho, y E. L. Foletto, “Determinación de los parámetros del modelo de flory-huggins para estimación del punto de nube de surfactantes no iónicos,” Información Tecnológica, vol. 25, no.2, pp. 165-174, Dic. 2014. Diofanor Acevedo Correa es Químico e Ingeniero de Alimentos de la Universidad de Cartagena-Colombia. Especialista en Ciencia y Tecnología de Alimentos, Universidad Nacional (Colombia). Ph.D Ingeniería de Alimentos Universidad del Valle-Colombia. Actualmente es Docente de planta de la Universidad de Cartagena e Investigador del grupo NUSCA. Correo electrónico: [email protected] Diego Felipe Tirado Armesto es Ingeniero de Alimentos de la Universidad de Cartagena-Colombia. MS.c (c) Ingeniería Ambiental, Universidad de Cartagena. Desde el 2012 hace parte del Grupo de Investigación Nutrición. Calidad y Salud Alimentaria (NUSCA). Correo electrónico: [email protected] Adriana Herrera Barros es Ingeniera Química de la Universidad del Atlántico-Colombia, Magister y Ph.D en Ingeniería Química, Universidad de Puerto Rico, Mayagüez. Actualmente es Docente de Planta de la Universidad de Cartagena, Jefa del Departamento de Investigaciones de la Facultad de Ingeniería y Líder del Grupo de Investigación Nanomateriales Multifuncionales. Correo electrónico: [email protected] Universidad Católica de Pereira 102 Políticas de la Revista Entre Ciencia e Ingeniería Identidad y objetivo de la revista “Entre Ciencia e Ingeniería” es una revista de la Universidad Católica de Pereira que tiene por objeto aportar al desarrollo en ciencia básica e ingeniería mediante la difusión de artículos que dan cuenta del avance y estado del conocimiento, de la técnica y la tecnología y de la formación en estas áreas. La ciencia y la tecnología se consideran producto de la inteligencia y están al servicio del hombre para su beneficio y su bienestar, son muestra fehaciente e indiscutible de su humanidad, de su naturaleza inquieta, perspicaz, aventurera y exploradora de su realidad, que en su avance le ha permitido subsistir, potenciarse y diferenciarse de las demás especies aun más cuando el conocimiento se ha fraguado con la creatividad permitiéndole diseñar herramientas, desplazar la noche por el día o transformar la naturaleza. Pero el ejercicio de la ciencia y la tecnología entrañan repercusiones, algunas veces inesperadas. Las nuevas formas de hacer y pensar pueden mejorar las condiciones de la vida o también atentar contra los seres vivos y su hábitat, por esto: El hombre cuanto más conoce la realidad y el mundo y más se conoce a sí mismo en su unicidad, le resulta más urgente el interrogante sobre el sentido de las cosas y sobre su propia existencia. La ciencia y la ingeniería conciben al mundo como comprensible, con reglas que rigen su funcionamiento y las cuales mediante un estudio cuidadoso y sistemático pueden evidenciarse por patrones consistentes que permiten la posibilidad de examinar las características fundamentales que mejor describan los fenómenos y la forma en que éstas se relacionan, será posible conocer más el mundo, su evolución, sus transformaciones, ajustes y comportamientos futuros. En la búsqueda de la verdad existen aspectos que se priorizan debido al contexto en el que está inserta la Universidad Católica Popular del Risaralda, la mirada desde y hacia lo regional permite la actualización y preparación en el escenario mundial, pues se puede establecer paralelos con el desarrollo de la ciencia y la ingeniería en el mundo. Adicionalmente, esta mirada desarrolla una relación de doble vía; mientras la región plantea de un sinnúmero de oportunidades y problemas para que la Universidad se desarrolle académicamente, se beneficia al tener soluciones oportunas a sus necesidades, proporcionando las condiciones adecuadas para la convivencia, la justicia, la libertad, la vida, las oportunidades sociales y el desarrollo humano. Entre Ciencia e Ingeniería La manifestación más accesible y durable de la actividad de investigación y el medio por excelencia para la difusión del conocimiento es la publicación científica. De esta manera “Entre Ciencia e Ingeniería” quiere hacer un aporte con su publicación periódica para la continua renovación de teorías, prácticas y un acercamiento a la verdad difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos, sociales y culturales. Por lo tanto, los escritos referidos a esta revista deben mantener el rigor propio de la ciencia, y enfocarse en los recientes desarrollos en ciencia e ingeniería, sus tendencias, validaciones y alcances. La producción de “Entre Ciencia e Ingeniería” se respalda con un comité editorial, un arbitraje nacional o internacional, una periodicidad de dos números en el año y con la publicación de resultados originales de proyectos de investigación. Guía para autores La revista “Entre Ciencia e Ingeniería”, está dirigida a la comunidad académica, científica y sociedad en general interesadas en el desarrollo de la ciencia y la ingeniería, mediante la divulgación de trabajos de reflexión y de investigación básica, aplicada y en educación en estas áreas. Tipos de artículos admitidos La revista evaluará las clases de artículos aceptados por Colciencias a saber: • Artículo de investigación científica y tecnológica. Documento que presenta, de manera detallada, los resultados originales de proyectos de investigación terminados. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, metodología, resultados y conclusiones. • Artículo de reflexión. Documento que presenta resultados de investigación terminada, desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. • Artículo de revisión. Documento resultado de una investigación terminada donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. 103 •Discusión. Posiciones críticas, analíticas e interpretativas sobre los documentos publicados en la revista, que a juicio del comité editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia. •Respuesta. Documento que responde a un escrito de discusión. Es realizado por el autor del artículo que suscitó el debate. De la recepción y evaluación de artículos • Los autores deben enviar su trabajo al comité editorial de la revista, dirección electrónica [email protected]. co, adjuntando los siguientes formatos debidamente diligenciados: ficha del autor(es), ficha del proyecto y carta de originalidad. • El comité editorial verifica si el documento es pertinente con la identidad y objetivo de la revista, dado su cumplimiento, se somete a una evaluación de carácter disciplinar y de estilo, para su valoración respectiva. • El evaluador disciplinar, dará su opinión especializada sobre el artículo, siendo este un académico con formación disciplinar adecuada para garantizar el rigor académico, la pertinencia y la calidad del mismo; el evaluador de estilo es un académico competente en procesos de lectura y escritura, quien revisará la redacción, ortografía, cohesión y coherencia del escrito. Cada uno de ellos informará por escrito, en formatos establecidos, al comité editorial su consideración respecto a si el artículo es apto o no para su publicación o si requiere correcciones. • Si el documento no es aceptado en primera instancia por el comité editorial, se informa al autor para que este pueda disponer del artículo. documento al comité editorial. Los evaluadores verifican las correcciones y le sugiere al comité si el artículo puede o no ser publicado. • Si el documento no es aceptado después de los resultados del arbitramiento se informa al autor para que pueda disponer del artículo. • Si un artículo es rechazado, la revista tiene como política no reconsiderar la decisión. • El autor debe hacer una revisión final al artículo impreso en el machote de la revista o en PDF, el cual se enviara vía correo electrónico. Del autor • El autor corresponsal, se considera que actúa de buena fe en representación de todos los autores del escrito y se somete con responsabilidad a garantizar la originalidad del trabajo y de no presentar en forma simultánea el documento a otra publicación en un lapso de 12 meses, a menos que sea rechazado en esta revista. • El autor corresponsal, en nombre de los coautores, con pleno poder otorgado por ellos, cede a la Universidad Católica de Pereira los derechos para la publicación del artículo en todos los idiomas y en todos los medios posibles de divulgación. • Al someter un artículo, el o los autores aprueban la publicación en papel y electrónica de su obra en la revista “Entre Ciencia e Ingeniería”, ISSN 1909-8367, en caso de ser aprobado por los evaluadores y el comité editorial. • Los juicios emitidos por el autor o los autores del artículo son de su entera responsabilidad. Por eso, no comprometen ni las políticas de la Universidad Católica de Pereira, ni las de la revista. • Los autores se hacen responsables de garantizar los derechos de autor, de todo el material utilizado en el artículo. • Los evaluadores desconocen los nombres de los autores y viceversa. • Con base en los resultados de las evaluaciones suministradas por los evaluadores, el escrito: - Se rechaza para publicación, en el caso de que alguno de los dos evaluadores o ambos consideren que el artículo no cumple con las condiciones para ser publicado. - Se debe corregir y enviar nuevamente a evaluación, en el caso de que uno o ambos árbitros consideren que se deben realizar modificaciones. - Se acepta para publicación, si ambos evaluadores consideran que el artículo cumple con las condiciones requeridas para tal fin. • Cuando el documento requiere correcciones, los autores las realizan o deciden retirar el artículo de la convocatoria. Al realizar las correcciones, retornan el • En cada edición solo se someterá a evaluación un solo artículo por autor. Del artículo • Los artículos para publicación deberán ser inéditos y exclusivos para la revista. • Se aceptan trabajos en español o inglés. Prevaleciendo las normas y el buen uso del idioma empleado. • La extensión mínima del artículo es de 6 páginas y la máxima de 8, siguiendo el formato y las normas respecto Universidad Católica de Pereira 104 a imágenes, referencia, tablas y demás de la IEEE, de acuerdo a la plantilla de la revista que se envía a los autores. Reglas para el formato de los artículos – Presentación Gráfica (seguir las plantillas/ModeloArtículo presentado) Nota: Importante cumplir con estas normas para que su artículo sea recibido. versalitas y numeradas con números romanos (I. Introducción). 8. La primera letra de la primera palabra del primer párrafo (de la Introducción) debe ser capitular de tamaño de dos líneas. Ejemplo: E ste documento proporciona un ejemplo de diseño de edición de un artículo técnico en español para la Revista IEEE América Latina. Es una plantilla hecha con el…… 1.Los artículos deben enviarse en formato Microsoft Word. Debe elegirse un tamaño de página Letter de 215,9×279,4 mm (8,5×11 pulgadas o 51×66 picas) con márgenes superior, inferior, izquierdo y derecho de 16,9 mm (0,67 pulgadas o 4 picas) y doble columna con separación central de 4,3 mm (0,16 pulgadas o 1 pica), lo que da una columna de 88,9 mm (3,5 pulgadas o 21 picas) mm de ancho y 245,6 mm de alto (9,66 pulgadas o 58 picas). El interlineado adoptado es de 1,05 puntos, pudiendo variarse de 1,03 a 1,07 para ayudar a completar páginas 9. El contenido del artículo en Times New Roman 10. Cada párrafo comienza con tabulación de 5 espacios (sangría), No hay espacios entre párrafos. 2. Para los artículos en español (el título, resumen y palabras clave deben estar en español, inglés y portugués), Times New Roman, tamaño 9 en color negro (incluyendo enlaces y correos). Los artículos también se reciben en inglés o portugués. 11.La leyenda de las figuras deben ser escritas “Fig. 1. xxx “, justificada a la izquierda en Times New Roman 8, terminando con el punto; para citar las figuras en el cuerpo del artículo, usar “ Fig. 1”. Ejemplo: 10.Título de las tablas en Times New Roman 8, mayúsculas y con números romanos (TABLA I debajo NOMBRE DE LA TABLA.). ejemplo: TABLA I TAMAÑOS Y ESTILOS DE LA LETRA TIMES NEW ROMAN EMPLEADA EN LA COMPOSICIÓN DE UN ARTÍCULO CON ESTA PLANTILLA O SIN ELLA 3. El artículo debe tener un promedio de seis a ocho (6-8) páginas, sin contar referencias. 4. Título del artículo en español, en inglés y en portugués, Times New Roman tamaño 18 y centrado, ejemplo: Plantilla de preparación de artículos técnicos en procesador de texto word (Microsoft) 5. Los nombres de los autores debe venir justo debajo del título, en Times New Roman tamaño 11, en el formato. Iniciales de los nombres seguido de punto con espacio entre ellos y seguido del primer apellido completo. Ejemplo, Juan Luis Arias Vargas (J. L. Arias) 6. Los Abstract (Un breve resumen del artículo) y Key Words (palabras que permitan identificar la temática del artículo) deben ponerse en español y en inglés, cursiva y negrita, seguidas de un guión largo (—, ALT+0151) sin espacio (Abstract— Key Words— ); el texto debe contener un párrafo escrito en negrita, en español, inglés y portugués todos en Times New Roman 9 y en negrilla. El resumen no debe pasar de 150 palabras y no puede contener ecuaciones, figuras, tablas ni referencias. Se debe proporcionar palabras clave (en orden alfabético), hasta un máximo de 10, que ayuden a identificar los temas o aspectos principales del artículo. 7. Título de sección en Times New Roman 10, en letras Entre Ciencia e Ingeniería Fig. 1. Inducción magnética en función del campo magnetizante. (Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del texto) 12.Las ecuaciones deben ser justificadas a la izquierda y numeradas con números arábigos entre paréntesis justificado a la derecha. 13.El título del apéndice debe ser centrado y cada uno de los apéndices justificado a la izquierda, con la etiqueta Apéndice A: xxx, Apéndice B: xxx. 14.Las secciones Referencias y Agradecimientos no se numeran, tipo de letra Times New Roman, tamaño 8, y debe seguir exactamente el modelo IEEE es decir, numeradas en orden de aparición y de acuerdo al tipo de 105 documento que se esté referenciando (ver el modelo para cada tipo de documento: libros, artículos, mpaginas web etc). Dentro del documento aparece por ejemplo [1] y al final en la sección de REFERENCIAS el formato debe ser: [1] [2] [3] J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics on power distribution system protection,” IEEE Trans. Power Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988. E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas Propagat., to be published. R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online]. 21(3), pp. 876-880. Disponible en: Universidad XXX-NOMBRE DE LA UNIVERSIDAD-XXXX. J.L. Vargas, Magister XXXX, Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. J. V. Pedraza, PhD XXXX, Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. M. Ruiz, Magister XXXX, Universidad Católica de Pereira, Pereira (Colombia); email: [email protected]. Nota: en la página web de la revista http://biblioteca.ucp.edu. co/OJS/index.php/entrecei, puede encontrar y bajar todos los formatos y guía para autores. 15.El artículo debe tener las Biografías de los autores al final, seguir el formato definido en el modelo, la foto es obligatoria. Deben venir después de las referencias, sin título de sección, con tipo de letra Times New Roman 8. Los nombres de los autores con apellidos, en negrita. Ejemplo: Nikola Tesla (M’1888, F’17) nació en Smiljan, Yugoslavia, el 9 de Julio de 1856. Se graduó en la Escuela Politécnica Austriaca de Graz y estudió en la Universidad de Praga. Ejerció profesionalmente en la American Telephone Company de Budapest, la Edison Machine Works, la Westinghouse Electric Company y los Laboratorios Nikola Tesla. Entre sus campos de interés estaban los fenómenos de alta frecuencia. El ingeniero Tesla recibió títulos honoríficos de diversas instituciones de enseñanza superior entre las que se encuentran las universidades de Columbia, Yale, Belgrado y el Zagreb. Obtuvo la Medalla Elliott Cresson del Instituto Franklin y la Medalla Edison del IEEE. En 1956, el término “tesla” (T) fue adoptado como unidad de inducción magnética, o densidad de flujo magnético, del sistema de medidas MKSA. En 1975 la Power Engineering Society estableció el Premio Nikola Tesla en su honor. Tesla murió en Nueva York el 7 de enero de 1943. 16.Si el artículo es resultado de investigación debe llevar un pie de página en la primera hoja columna de la izquierda, indicando: el nombre del proyecto del cual se deriva, la facultad o departamento, la institución y el grupo de investigación al cual pertenece, en letra Times New Román tamaño 8. Al igual que en el contenido del artículo cada párrafo comienza con tabulación de 5 espacios. Y no hay espacios entre párrafos. El tamaño de interlineado es 1.0. Seguido debe llevar como pie de página en la primera hoja columna izquierda, la información de los autores en la cual se mencione: Los nombres tal como aparecen en la parte superior (Iniciales del nombre y el primer apellido completo), seguido de la afiliación laboral, ciudad-País y correo electrónico Ejemplo: 1 Producto derivado del proyecto de investigación “X-NOMBRE PROYECTO-XXXX”. Presentado por el Grupo de Investigación X-NOMBRE GRUPO DE INVESTIGACIÓN-XXXX, de la facultad o departamento XX-NOMBRE DE LA FACULTAD-XXXX, de la Universidad Católica de Pereira