Revista 18 Finalizado.indd - Biblioteca Cardenal Darío Castrillón

Transcripción

Revista 18 Finalizado.indd - Biblioteca Cardenal Darío Castrillón
1
Directivos Consejo Superior
Monseñor Rigoberto Corredor Bermúdez
Pbro. Diego Augusto Arcila Vélez
Pbro. Behitman Céspedes de los Ríos
Pbro. Rubén Darío Jaramillo Montoya
Pbro. John Fredy Franco Delgado
Dr. Bernardo Gil Jaramillo
Dr. Javier Morales López
Dr. Jaime Montoya Ferrer
Dr. José Fredy Aristizábal
Estudiante Camilo Bedoya
Rector
Pbro. Diego Augusto Arcila Vélez
Vicerrector Académico
Luis Eduardo Peláez Valencia
Decano de la Facultad de Ciencias Básicas e Ingeniería
Juan Luis Arias Vargas
Director Programa de Ingeniería Industrial
Paula Milena Rios González
Director Programa Ingeniería de Sistemas y Telecomunicaciones
Alonso Toro Lazo
Director Programa de Tecnología en Sistemas
Lina María Suárez Vásquez
Director Depto de Ciencias Básicas
James Andrés Barrera Moncada
Universidad Católica de Pereira
2
ENTRE CIENCIA E INGENIERÍA
ISSN 1909-8367
Es una revista de la Facultad de Ciencias Básicas e Ingeniería, que tiene por objeto aportar al desarrollo en ciencia
básica e ingeniería mediante la difusión de artículos que den cuenta del avance y estado del conocimiento, de la
técnica y de la tecnología y de la formación en estas áreas.
La revista Entre Ciencia e Ingeniería esta admitida en:
·
·
·
·
·
·
Índice de Publicaciones Seriadas Científicas y Tecnológicas (PUBLIDEX Categoría B)
Índice Latinoamericano de Revistas Científicas y Tecnológicas (LATINDEX)
Índice Internacional de EBSCO
Índice Actualidad Iberoamericana (Instituto Iberoamericano de Información en Ciencia)
Base de Datos Informe Académico (Académica Onefile)
Red Colombiana de Revistas de Ingeniería
En su publicación periódica hace un aporte para la continua renovación de teorías y un acercamiento a la verdad
difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos,
sociales y culturales.
Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los conceptos
expresados en los artículos son responsabilidad exclusiva de sus autores.
Universidad Católica de Pereira
Av de las Américas Carrera 21 No 49-95 Pereira, Colombia
Teléfono 3124000 ext 1019 y 1029
Http://biblioteca.ucp.edu.co/OJS/index.php/entrecei
[email protected]
Periodicidad semestral
Diagramación e Impresión
ARPI Artes Gráficas
Impreso en Colombia - Printed in Colombia
ARPI Artes Gráficas
Calle 19 No 12-69 Centro Comercial Fiducentro
Local B-001,Tel 334 4258 Pereira - Colombia
© Reservados todos los derechos de autor
ISSN 1909 - 8367
Pereira, Colombia
Entre Ciencia e Ingeniería
3
Comité Científico
PhD. Diego Muraca
Universidad Estatal de Campinas (Brasil)
PhD. Victor Leiva
Universidad Adolfo Ibáñez (Chile)
PhD. Christian Alexis Lazo Ramírez
Universidad Austral de Chile
Director
Msc. Juan Luis Arias Vargas
Universidad Católica de Pereira
Editor
Universidad Católica de Pereira
Coordinador Editorial
PhD. (C) Line Yasmin Becerra Sánchez
Universidad Católica de Pereira
Corrección de estilo
Esp. Jair del Carmen Rodríguez Velásquez
Universidad Católica de Pereira
Comité Editorial
PhD. (C) Line Yasmin Becerra Sánchez
Universidad Católica de Pereira
PhD. Diego Fernando Arias Mateus
Universidad Católica de Pereira
Msc. Juan Luis Arias Vargas
Universidad Católica de Pereira
PhD. Yair Linn
Universidad UBC (University of British Columbia).
PMC-Sierra (Burnaby-Canada)
PhD. Jhon Jairo Padilla Aguilar
Universidad Pontificia Bolivariana (Bga.)
PhD. John Makario Londoño Bonilla
Universidad de Caldas
PhD. Liliana López Kleine
Universidad Nacional de Colombia
PhD. Hermenegildo Gil Gómez
Universidad Politécnica de Valencia
PhD. Daniel Linares
Universidad de San Luis (Argentina)
PhD. Antonio Sanhueza
Universidad de La Frontera, Temuco, (Chile)
Arbitros
para este número
PhD. Gonzalo Taborda Ocampo
Universidad de Caldas
PhD (c). Jaime Antero Arango Marín
Universidad Nacional de Colombia – Sede Manizales
MSc- José Alberto Rúa Vásquez
Universidad de Medellín
PhD. Cristina Inés Álvarez Barreto
Universidad de Caldas
PhD- Julio César Mosquera Mosquera
Universidad del Quindío
MSc Luis Alejandro Fletscher
Universidad de Antioquia
PhD. Oscar Mauricio Caicedo Rendón
Universidad del Cauca
MSc Euclides Murcia Londoño
Universidad Católica de Pereira
PhD- Jorge Hernán Quintero Orozco
Universidad de Medellín
MSc Jorque Enrique Herrera rubio
Universidad de Pamplona
PhD. Gustavo Adolfo Isaza Echeverri
Universidad de Caldas
MSC-Ramiro Torres Gallo
Universidad de Córdoba
Universidad Católica de Pereira
4
Entre Ciencia e Ingeniería
5
CONTENIDO
Editorial
7
9 - 15
Análisis y caracterización fisicoquímica de la especie Hevea Brasiliensis
Physicochemical analysis and characterization of the Hevea brasiliensis species
A. M. Támara y H. Reyes
Simulación de un proceso de logística inversa: recolección y acopio de envases y empaques
vacíos de plaguicidas
Simulation of a reverse logistics process: collecting and stockpiling containers and empty
pesticides packaging
J. D. Silva y E. D. Contreras
16 - 22
Educación matemática en Colombia, una perspectiva evolucionaria
Mathematics education in Colombia, an evolutionary perspective
M. E. Murcia y J. C. Henao
23 - 30
Estudio de la viabilidad del Lactobacillus casei en jugo de naranja (Citrus sinensis)
adicionado con vitamina C, Calcio y oligofructosa
Feasibility study of Lactobacillus casei in orange juice (Citrus sinensis) supplemented with
vitamin C, calcium and oligofructose
M. C. Londoño, J. C. Lucas y V. D. Quintero
31 - 38
Modelos de crecimiento de grietas por fatiga
Models of fatigue crack growth
Á. A. Andrade, W. A. Mosquera y L. V. Vanegas
39 - 48
Preliminares de la adaptación del algoritmo PA-VNE para la reasignación de redes virtuales
mapeadas y la selección entre diferentes tipos de métricas
Preliminaries in the adaptation of the algorithm PA-VNE for the reallocation of mapped virtual
networks and the choice between different types of metrics
N. Alzate, J.R. Amazonas y J.F. Botero
49- 58
Medición del nivel de aprendizaje con dos escenarios de formación:
uno tradicional y otro con TIC
Measuring the level of learning with two formation scenarios:
a traditional one, and another with ICTs
L. E. Peláez y B. E. Osorio
59 - 66
Una revisión del estado del arte de la medida de la nano dureza usando
el Microscopio de Fuerza Atómica
A review of the state of the art when measuring the nanohardness using the
Atomic Force Microscope
D. F. Arias, D. Pérez y J.M. González
67 - 74
Universidad Católica de Pereira
6
El diodo Schottky como atenuador del efecto Seebeck en una celda Peltier
para un control PID de temperatura
The Schottky diode as attenuator of the Seebeck effect on a Peltier cell for a
PID temperature control
J.F. Leal, M.M. León y S.B. Sepúlveda
75 - 83
Comparación de dos algoritmos para hallar ternas pitagóricas usando dos paradigmas
de programación diferentes
Comparison of two algorithms in order to find Pythagorean triples using two different
programming paradigms
O. I. Trejos
84 - 94
Modelado de la energía de interacción de nanopartículas de sílice
preparadas en microemulsiones
Modeling the interaction energy of silica nanoparticles prepared in microemulsions
D.F. Tirado, D. Acevedo y A.P. Herrera
Políticas de la Revista
Entre Ciencia e Ingeniería
95 - 101
102 - 105
7
Editorial
La revista especializada de la Facultad de Ciencias Básicas
e Ingeniería de la Universidad Católica de Pereira, Entre
Ciencia e Ingeniería cierra exitosamente su noveno año
con el ejemplar número 18, el cual responde a las políticas
institucionales que a través de ella se busca consolidar,
como son difundir el quehacer científico y su posibilidad de
inserción en los contextos industriales, económicos, sociales
y culturales, al igual que propender por el desarrollo de la
ciencia y la ingeniería, mediante la divulgación de una serie
de artículos relacionados con diferentes avances en cuanto a
la academia, la técnica y la tecnología, tanto a nivel regional
como nacional.
Para el segundo semestre de 2015, la revista presenta once
artículos, producto de rigurosas investigaciones llevadas a
cabo por sus autores en diferentes áreas del conocimiento
y en diversos contextos, todo ello resultado de muchos días
de constante y estricto trabajo, buscando siempre contribuir
al desarrollo social a través de prácticas que generan
conocimiento continuo y permanente convirtiéndose
en referente para nuevas investigaciones y nuevos
investigadores.
En el primer artículo, análisis y caracterización fisicoquímica
de la especie Hevea Brasiliensis, los autores caracterizan por
técnicas de TGA, DTG e IR la coagulación del látex de caucho
natural, mediante el uso de ácido fórmico y ácido acético;
el segundo artículo Simulación de un proceso de logística
inversa: recolección y acopio de envases y empaques vacíos
de plaguicida presenta el estudio realizado al proceso de
recolección y acopio de residuos de plaguicidas en la unidad
de riego Pantano de Vargas- Boyacá Colombia y a través
de la evaluación de alternativas de mejora, se planteó una
configuración factible que proporcionó la mayor disminución
del tiempo total del proceso de recolección y acopio de los
residuos; el artículo de revisión, educación matemática
en Colombia, una perspectiva evolucionaria, plantea de
forma concreta algunos elementos epistemológicos de la
formación del pensamiento matemático para el nivel de
educación básica y media en Colombia, con los posibles
errores metodológicos que se cometen en los procesos
de transformación del lenguaje común hacia el lenguaje
matemático estructurado; en el artículo denominado estudio
de la viabilidad de Lactobacillus casei en jugo de naranja
(Citrus sinensis) adicionado con vitamina C, calcio y
oligofructosa, se utilizó la naranja valencia para producir
un jugo enriquecido con bacterias probióticas (Lactobacilos
casei), se midió la concentración óptima de estabilizante
realizando un barrido con tres tipos de gomas (Xantan,
CMC, y pectina) evaluado mediante un arreglo factorial 33.
El artículo modelos de crecimiento de grietas por fatiga,
estudia el tema, exponiendo una breve descripción histórica.
Siguiendo la línea cronológica en el desarrollo de la
investigación, hace especial énfasis en la ley de Paris y
luego estudia algunos modelos específicos que, en general,
corresponden a investigaciones de punta realizadas por
diversos grupos, en el ámbito internacional; el artículo
preliminares de la adaptación del algoritmo PA-VNE para la
reasignación de redes virtuales mapeadas y la selección entre
diferentes tipos de métricas presenta los avances preliminares
de la investigación acerca de la optimización del algoritmo
PA-VNE y su implementación en una red definida por
software; el artículo medición del nivel de aprendizaje con
dos escenarios de formación: uno tradicional y otro con TIC,
sistematiza la experiencia llevada a cabo en la Institución
Educativa Villa Santana, la cual consiste en un trabajo de
campo en el que se utilizaron algunas herramientas para
el desarrollo de la temática sobre números fraccionarios
en el grado quinto y el despliegue de algunas estrategias
pedagógicas convencionales y no convencionales, para
luego medir su impacto a partir de los resultados del proceso
de evaluación.
En el artículo denominado una revisión del estado del arte de
la medida de la nanodureza usando el Microscopio de Fuerza
Atómica se pretende realizar una primera aproximación a
algunos modelos usados para evaluar la dureza usando el
AFM a partir del modelo elástico; en el siguiente artículo,
el diodo Schottky como atenuador del efecto Seebeck en
una celda Peltier para un control PID de temperatura, se
propone el diodo Schottky 15SQ045 como una solución
eficaz y efectiva para anular los daños que produce el efecto
Seebeck en la celda Peltier; en el artículo comparación de
dos algoritmos para hallar ternas pitagóricas usando dos
paradigmas de programación diferentes, además de analizar
las características algorítmicas de dos versiones de solución
al problema de hallar ternas pitagóricas en un rango de 1
hasta n para n como un valor entero definido, se realiza una
comparación entre la solución implementada a partir del
paradigma de programación funcional, basado en lenguaje
Scheme entorno Dr. Racket versión 6.1 y la solución
implementada a partir del paradigma de programación
imperativa utilizando lenguaje C++ arista estructurada
entorno DevC++ Versión 5.8.0; finalmente, en el artículo
modelado de la energía de interacción de nanopartículas de
sílice preparadas en microemulsiones, se modeló la energía
de interacción de nanopartículas de sílice preparadas en
microemulsiones de fase orgánica, usando la teoría DLVO
para partículas esféricas de igual tamaño.
Esperamos que todos los artículos aquí presentados
contribuyan al enriquecimiento y crecimiento académico,
intelectual e investigativo de los lectores de nuestra revista
y que se conviertan material de apoyo que genere nuevas
propuestas investigativas en estos y otros campos del
conocimiento, así mismo, esperamos aportar al desarrollo
científico y tecnológico de instituciones y grupos de
investigación que buscan encontrar cada día nuevas formas
de leer el mundo y los fenómenos que en él se presentan.
Esp. Jair del Carmen Rodríguez Velásquez
Universidad Católica de Pereira
8
Entre Ciencia e Ingeniería
9
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 9-15
Análisis y caracterización fisicoquímica de la
especie Hevea Brasiliensis1
Physicochemical analysis and characterization of
the Hevea brasiliensis species
A. M. Támara y H. Reyes
Recibido Agosto 14 de 2014 – Aceptado Septiembre 23 de 2015
Resumen— Este trabajo se centró en caracterizar por
técnicas de TGA, DTG e IR la coagulación del látex de caucho
natural, mediante el uso de ácido fórmico y ácido acético, se
usaron ejemplares clasificados como clon IAN-710, cultivados
en el departamento del Caquetá, con el objetivo de comparar
la aplicación de éstos ácidos a distintas concentraciones y la
repercusión que tienen en las propiedades térmicas y químicas
(materia volátil y cenizas). La caracterización se llevó a
cabo mediante calorimetría diferencial de barrido, análisis
termogravimétrico y la identificación por espectroscopia de
infrarroja. Se observó que la variación de la concentración de
ácidos no influye en un cambio relevante en las propiedades
térmicas, además, no se altera la estructura química molecular
principal del caucho como cadena poli (cis-1,4-isopreno).
Palabras clave — calorimetría diferencial de barrido,
análisis termogravimétrico, espectroscopia infrarroja, caucho
natural.
Abastract — This work focused on characterizing by
techniques TGA, DTG and IR, the coagulation of natural rubber
latex, by using formic acid and acetic acid, samples classified
as clone IAN-710 grown in Caquetá were used, in order to
compare the use of these acids on different concentrations, and
the impact they have on the thermal and chemical properties
(volatile matter and ash). The characterization was carried
1
Producto derivado del proyecto de Investigación “Análisis y
Caracterización Fisicoquímica de la Especie Hevea Brasiliensis”,
perteneciente al Grupo Químico en Investigación y Desarrollo Ambiental,
avalado por el programa Programa de Química (Ciencias Básicas, Caquetá)
de la Universidad de la Amazonia.
A. M. Támara es Estudiante Investigador en Química de la Universidad
de la Amazonia, Florencia (Colombia); correo e.: mile-219205@hotmail.
com; [email protected].
H. Reyes es Ph.D en Ingeniería Química y Nuclear, Director Maestría
en Química de la Facultad de Ciencias Básicas y Tecnologías, docente
investigador de la Universidad del Quindío, Armenia (Colombia); correo e.:
[email protected].
out by differential scanning calorimetry, thermogravimetric
analysis and infrared spectroscopic identification. It was
observed that the variation of acids concentration does affect
neither the thermal properties within a significant change, nor
the major molecular chemical structure of rubber as poly (cis-1,
4 -isoprene).
Key words —
differential scanning calorimetry,
thermogravimetric analysis, infrared spectroscopy, natural
rubber.
I. Nomenclatura
DSC: Calorimetría Diferencial de Barrido
TGA: Análisis Termogravimétrico
DTG: Derivada del Análisis termogravimétrico
IR: Espectroscopia infrarroja
E
II. Introducción
L caucho, Hevea brasiliensis, es la fuente de la materia
prima de innumerables productos que generan
un gran impacto en el desarrollo industrial, económico y
social, siendo utilizado como materia prima industrial, bien
sea de forma líquida látex de caucho o en forma de caucho
seco, para la manufactura de un gran número de productos
indispensables para la sociedad, desde guantes industriales y
quirúrgicos, mangueras, calzado, adhesivos, accesorios para
autos, hasta su aplicación más prioritaria como neumáticos
para todo tipo de transporte [1].
Colombia cuenta con alrededor de 28000 hectáreas para
la producción de este recurso, donde 4283 hectáreas están en
explotación actualmente, siendo el departamento del Caquetá
el más importante con cerca del 50% del total que se explota,
aproximadamente: 5139 toneladas anuales de caucho seco
se producen. Se prevé que para el año 2018 la cantidad de
Universidad Católica de Pereira
10
producción de caucho anual será de unas 30823 toneladas
anuales en el país [2], de tal manera, que para dicho año, se
lograría suplir la demanda nacional actual cercana a 28000
toneladas, solicitada para los diversos procesos industriales
[3]. Tal hecho, lleva consigo la necesidad de aumentar el uso
de ácido para el proceso de coagulación del látex.
La cantidad de ácido requerida para el proceso de
coagulación del látex, depende del estado de madurez de los
árboles, de las condiciones climáticas, el tipo de suelo y la línea
o casta del árbol [3, 1, 4, 5]; los árboles jóvenes dan un látex
inestable y durante la sangría se debe añadir al mismo, algo de
amoníaco para asegurar su estabilidad hasta su manufactura.
La cantidad de amoníaco adicionado se tiene en cuenta al
determinar la cantidad de ácido necesario para un efectivo
proceso de coagulación. El látex de árboles maduros, que no
ha recibido amoníaco, necesita aproximadamente 40 mL de
ácido fórmico (al 90 %) por cada 100 litros de látex, visto
así, el volumen de ácido fórmico pareciera ser insignificante,
pero multiplicado por 5139 toneladas de demanda nacional
anuales de látex y con un grado de toxicidad DL50 730mg/
kg, es realmente preocupante, pero aún más, para cuando se
logre la producción de las aproximadamente 31 mil toneladas
[3]. Diversos autores plantean el uso de ácido acético como
agente coagulante [1, 6, 7], el cual tiene un menor grado de
toxicidad (DL50 3310 mg/kg). Sin embargo, no se conoce
el efecto que tiene la variación de la concentración de
ácido fórmico y ácido acético en el proceso de coagulación
del látex provenientes del caucho natural de la región del
Caquetá (según la exploración hecha en las bases de datos:
Science Direct, American Chemical Society, google school
y Journal Scielo), con respecto a las propiedades térmicas.
Lo ideal sería, que la variación de la concentración de
ácido acético sea igual o repercuta en la mejora de estas
propiedades en el proceso de coagulación, en comparación
con el ácido fórmico.
Actualmente, el problema radica en que los productores
de caucho del departamento del Caquetá proceden de
una manera no sistemática, realizando variaciones de las
concentraciones y cantidades de agente coagulante, teniendo
en cuenta exclusivamente el conocimiento empírico,
haciendo uso aproximado de una concentración, sugerida
por la Asociación de Reforestadores y Cultivadores de
Caucho del Caquetá (ASOHECA). No obstante, esta práctica
ha ocasionado grandes variaciones en las propiedades de la
materia prima final, que establece la norma ISO 2000 [3].
El objetivo de este trabajo de investigación se centra en
evaluar la variación de las concentraciones de dos ácidos y su
repercusión en las propiedades térmicas, químicas (análisis
de materia volátil y cenizas) en caucho seco como producto
final, conjuntamente su identificación por espectroscopia
infrarroja; siendo este trabajo un estudio que permite abarcar
las demás características que establece la norma para este
tipo de productos.
III. Desarrollo del artículo
A. Procedimiento experimental
a. Materia prima:
La recolección del látex de caucho, se realizó en
ejemplares clasificados como clon IAN-710 de Hevea
brasiliensis según el Instituto Amazónico de Investigaciones
Científicas (SINCHI). Así, se seleccionaron 50 árboles de
seis años de edad, cinco meses de explotación en promedio, y
beneficiados por el sistema D2, es decir, sangrados cada dos
días. Plantados, en el Centro de Investigaciones Amazónicas
Macagual (CIMAZ), ubicado a 20 km de Florencia, al sur
del departamento del Caquetá, a una altura de 326 m.s.n.m,
con temperatura media anual de 25,5°C, humedad relativa
media del 85 % y precipitación media de 3600 mm/año.
b. Cantidad y tiempo de recolecta:
Una vez sangrados los arboles mediante un corte de
media espiral, el látex se recolectó en vasijas plásticas.
Transcurrido el tiempo de sangrado, el látex se trasvasó
a un frasco de vidrio ámbar, para una cantidad de colecta
de 1.5 litros en total, el cual no tuvo previo tratamiento de
conservación con amonio, sino que fue llevado de inmediato
al laboratorio para su coagulación. Este mismo proceso se
repitió al tercer día, para los ensayos por duplicado.
c. Proceso de coagulación.
El látex fue previamente filtrado mediante un tamiz de
400 µm, luego fue trasferido a doce beackers, donde se
agregó a cada uno de ellos 100 mL de látex, seguidamente
se adicionaron 3,5 mL de ácido acético y ácido fórmico a
diferentes concentraciones (1 %, 3 %, 5 %, 10 %, 15 % y
20 % v/v), a un número igual de muestras, éste proceso se
realizó por duplicado. Una vez trascurridas las 24 horas de
coagulación, el caucho se lavó con agua, y posteriormente
se lamino en un equipo de rodillos abiertos a un espesor de
2 mm, para finalmente ser secado por ocho días al aire libre
bajo sombra.
d. Análisis químico
Materia volátil: se tomaron, de cada muestra laminada
pesos aproximados entre 10,000 y 10,490 gramos; luego,
las respectivas fracciones fueron llevadas al horno por 1
hora a 110°C, se sacaron para ser pesados, seguidamente se
llevaron de nuevo al horno por 30 minutos, para nuevamente
ser sacadas y pesadas. El proceso se repitió hasta lograr una
diferencia de peso inferior a 1mg.
Cenizas: se tomaron de cada muestra laminada pesos
aproximados entre 10,000 y 10,490 gramos, luego fueron
cortadas en tiras e incineradas a la llama, para ser introducidas
en crisoles; seguidamente ser llevadas a la mufla a 550°C
por 3 horas, hasta que las muestras quedaran convertidas en
cenizas.
e. Caracterización del caucho
Las láminas de caucho natural se analizaron por
Entre Ciencia e Ingeniería
11
espectroscopia de infrarroja (IR), en un equipo Thermo
Scientific Nicolet 6700 equipado con una celda ATR
SMART ORBIT NEXT con cristal de diamante, en un rango
de número de onda entre 4000 cm-1 a 450 cm-1 . También
fueron caracterizadas por análisis termogravimétrico (TGA),
los cuales se realizaron en un equipo TA Instruments HR
2950 V6.1, aplicando una velocidad de calentamiento de
10 °C/min desde temperatura ambiente hasta 800°C, en
atmosfera aire con un flujo de 60 mL/min. Un análisis de
calorimetría diferencial de barrido (DSC) también les fue
aplicado. Para DSC se usó un equipo NETZSCH STA 409C,
a una velocidad de calentamiento de 10 °C/min en atmosfera
de aire.
concentraciones no aumenta el porcentaje de material volátil
ni de cenizas, ya que no existe una concentración elevada de
minerales en las muestras de caucho seco laminado, como es
de esperarse en coagulo de caucho seco como materia prima
final por algunos agricultores.
Tabla I. resultados de porcentaje de material volátil y
porcentaje de cenizas en las distintas muestras coaguladas con
ácido fórmico y ácido acético
B. Resultados y discusiones
Aunque no se efectuaron análisis mecánicos, sí se
observó, que las muestras coaguladas a concentraciones bajas
de 1 %, 3 % y 5 % (v/v), eran más blandas en comparación
con las muestras coaguladas a concentraciones altas de 10
%, 15 % y 20 % (v/v) las cuales tenían un comportamiento
un poco más rígido; en especial la muestra coagulada con
ambos ácidos a concentraciones de 20%.
En la Fig. 1, se muestra la estructura química del poliisopreno, componente mayoritario (entre el 93 % a 95%
en el caucho seco [5], el cual es objeto de discusión en los
resultados por espectroscopia infrarroja.
En las Fig. 2 y 3 se exponen los espectros IR para las
diferentes muestras de látex coagulado, usando los diferentes
ácidos, comparando la transmitancia relativa en función del
número de onda con el propósito de visualizar los espectros.
Fig. 1. Estructura química del poli (cis-1,4-isopreno) en el caucho
natural según [5].
En la Tabla I se muestran los resultados del porcentaje de
material volátil y el porcentaje de cenizas, obtenidos según los
análisis realizados a las distintas muestras, bajo los criterios
establecidos por las normas ISO. Los resultados señalan
que las muestras coaguladas a las distintas concentraciones
de ácidos, están dentro de los parámetros estipulados por
la norma ISO 248 para el contenido de material volátil y
la norma ISO 247 para el contenido de cenizas, los cuales
establecen, que el porcentaje máximo de materia volátil debe
ser igual o inferior a 0,8%, y que el porcentaje de cenizas
debe ser igual o inferior al 1%. Un aumento en el porcentaje
de agua en especial de minerales e impurezas, modifica las
propiedades del caucho, teniendo que hacerse tratamientos
térmicos previos para eliminar y mitigar dicho aumento,
antes de llevarse a cabo un uso específico, según lo señala la
Asociación Americana de Análisis y Materiales (ASTM) [5].
Sin embargo, cabe aclarar, que la desecación absoluta
del caucho no ocurre, tan solo se tiene un equilibrio hídrico,
el cual no es muy relevante. Por tanto y considerando lo
anterior, se deduce que la influencia de ácido en las distintas
Fig. 2. Espectro infrarrojo para el caucho seco coagulado con ácido
acético.
Fig. 3. Espectro infrarrojo para el caucho seco coagulado con ácido
fórmico.
Universidad Católica de Pereira
12
Las bandas de 3284 cm-1 y 3332 cm-1 en los espectros
presentados en las Fig. 2 y 3 corresponden al ácido orgánico
respectivo, a ácido fórmico y ácido acético, las regiones
próximas a 2850 cm-1 y 2920 cm-1 corresponden a los
estiramientos simétrico y asimétrico del grupo metilo, en la
región de 2960 cm-1 se encuentra el estiramiento simétrico
y asimétrico del C-H en el grupo funcional CH3. En la
región de 1660 cm-1 y 1544 cm-1 se observa vibración de
estiramiento asociado al doble enlace C=C, en 1444 cm-1 y
1376 cm-1 vibración de deformación asimétrica y simétrica
del C-H en el grupo metilo, en 1126 cm-1 vibraciones del
esqueleto C-C, en 1036 cm-1 deformación del enlace C-CH2
en el plano, en 840 cm-1 una banda fuerte asociado a la
flexión del C-H fuera del plano en el grupo funcional C=C
que se describe como típica cadena del cis-1,4 y en 756 cm-1
una banda que corresponde a vibraciones del enlace C-C en
el grupo funcional CH2.
Es posible inferir, como se mencionó anteriormente,
que los ácidos orgánicos usados para la coagulación látex,
están presentes en el caucho seco debido a sus bandas
características (3284 cm-1 y 3332 cm-1), como se aprecia en
los espectros IR realizados a cada muestra (ver Fig. 2 y 3).
Este ácido presente en las muestras coaguladas, es
producto de la estabilización ó neutralización que tienen los
ácidos carboxílicos sobre la carga negativa presente en la
capa periférica de proteínas y algunos grupos funcionales
que quedan por fuera de la interfase caucho-agua según [8].
Pero, no se conoce específicamente qué sustancias o que
otras sustancias no isoprénicos son afectadas por el uso de
ácido.
Fig. 4. Superposición de termogramas TGA y DTG para las
muestras de caucho seco obtenidos del látex coagulado con ácido
acético.
Sin embargo, teniendo en cuenta los espectros infrarrojo,
se puede deducir que independientemente de la concentración
de ácido y el tipo de ácido usado, no se modifica la estructura
química molecular principal del caucho (poli cis-1,4isopreno, ver Fig. 1), ya que se muestran las mismas bandas
características, propias de esta estructura elucidadas por
IR, en trabajos e investigaciones realizadas por [1,9,10,11].
Además, se podría incluso utilizar concentraciones más
bajas de ácido para la coagulación del látex.
Por otra parte, la neutralización de cargas negativas,
por los ácidos carboxílicos, si bien, no permiten que se
incremente en el porcentaje de cenizas, ya que esta interacción
desplazaría las cargas positivas generadas por algunos
minerales tales como K, Ca, Fe entre otros, sobre la superficie
de la interfaz caucho-agua, sin embargo la concentración de
ácido, tampoco marca influencia en este hecho, ya que el
porcentaje de cenizas de algunas concentraciones de ácidos
es similar, como se muestra en la Tabla I.
En las Fig. 4 y 5 se muestran los resultados de TGA
y DTG obtenidos para algunas muestras de caucho seco
provenientes del látex coagulado con ácido acético y ácido
fórmico.
Entre Ciencia e Ingeniería
Fig. 5. Superposición de termogramas TGA y DTG para las
muestras de caucho seco obtenidos del látex coagulado con ácido
fórmico.
13
Los termogramas para las diferentes muestras
presentadas en las Fig. 4 y 5, reflejan claramente dos
eventos presentes en cada muestra analizada; el primer
evento, a 120 °C, señala una perdida inicial de masa entre
2% y 8% en las distintas muestras, atribuidas a pérdidas de
agua y monómeros, lo cual ha sido reportado por [5], en
especial agua y elementos no isoprénicos como proteínas,
alcoholes y compuestos de bajo punto de ebullición; luego
se presenta una degradación térmica inicial y final entre 340
°C y 465 °C, con más del 98 % de pérdida de masa en las
distintas muestras, correspondiente al proceso de pirolisis
oxidativa que sufre la cadena polimérica del caucho como
lo refiere [7]. Hecho que se asemeja en las investigaciones
realizadas por [12,13], pero que muestran una degradación
inicial y final entre 385 °C a 475°C para el caucho natural
de malasia, lo que sugiere que el caucho utilizado en este
trabajo, es térmicamente un poco menos estable, aunque la
estabilidad térmica va a depender del tipo de clon de caucho
utilizado, así lo indica [5]. No obstante, existen mezclas de
caucho natural con otros elementos como nanocompuestos
de caucho con arcillas, caucho estireno-butadieno, los cuales
le otorgan al caucho natural una mayor estabilidad térmica,
así lo demuestran los estudios realizados [8,14].
Los termogramas DTG señalan, que la temperatura
máxima de degradación térmica para las muestras coaguladas
a diferentes concentraciones de ácido fórmico y ácido
acético son muy similares entre sí, donde la degradación
oscila en un rango de temperaturas entre 407,7 °C a 413,9
°C para ácido fórmico, y ntre 401,5 °C a 409,7 °C para
ácido acético; no obstante, la diferencia térmica entre las
distintas concentraciones de ácido y entre ácidos, no es muy
significativa para el propósito de éste trabajo.
Por último se muestra, en todos los termogramas, la
degradación termo-oxidativa del caucho a temperaturas por
encima de 550 °C, donde el porcentaje materia restante es
la de elementos o compuestos inorgánicos, como óxidos de
minerales, siendo el valor de residuos obtenidos de 0,14 %
y 0,95 % m/m, donde el contenido más bajo y más alto es
para las concentraciones de 15 % y 1 % de ácido fórmico y,
0,64 % y 0,31 % m/m, siendo el contenido más alto y más
bajo, para una concentración de 20 % y 3 % de ácido acético;
concentraciones de minerales e impurezas, que se mantiene
en el rango según la norma ISO 247 y que juegan un papel
fundamental en las propiedades del caucho como se había
mencionado anteriormente. Dado lo anterior, es posible
deducir y concluir, que la degradación y la estabilidad térmica
de las muestras coaguladas a distintas concentraciones de
ácido es muy similar, ya que el margen de materia perdida
con el incremento de la temperatura, no es muy distante,
además, se presentan los mismo eventos representativos en
el análisis del caucho natural en otras investigaciones.
En la Fig. 6 y 7 se muestran los resultados obtenidos por
DSC para los cauchos obtenidos del látex coagulado con
ácido fórmico y ácido acético.
Fig. 6. Termograma de calorimetría diferencial de barrido (DSC)
para los cauchos obtenidos del látex coagulado con ácido acético.
Fig. 7. Termograma de calorimetría diferencial de barrido (DSC)
para los cauchos obtenidos del látex coagulado con ácido fórmico.
La característica a la que el caucho natural debe gran
parte de sus excelentes propiedades y que a su vez es
consecuencia de su regularidad estructural, es su tendencia
a una leve cristalización, la cual tiene lugar a temperaturas
por encima de 10 °C como lo indica [15]. El primer pico
Universidad Católica de Pereira
14
que se observa en la Fig. 6 y 7, dado en todas las muestras,
es de naturaleza endotérmica, y corresponde a la fusión
de ésa pequeña fase cristalina, según lo menciona [16].
Aunque este evento no es observado en los termogramas
TGA; la temperatura de las muestra (caucho natural)
sufre un retraso, observado en la señal DSC, mientras se
continua el programa de calentamiento, teniendo lugar en
estos termogramas a temperaturas entre ± 65 °C y ± 77
°C, realizadas a las muestras coaguladas con los diferentes
ácidos y concentraciones; a medida que se sigue aumentando
la temperatura y a su vez la sensibilidad a la oxidación,
hasta un punto, donde se presentan dos picos consecutivos
de carácter exotérmico entre temperaturas de 315 °C y 320
°C para el segundo pico, y 355 °C a 360 °C para el tercer
pico en todas las muestras, los cuales son el resultado del
ataque del oxígeno sobre los grupo metilenos de la cadena
polimérica, según lo mencionan [17]. Y finalmente se
presenta con el incremento de la temperatura, un semi pico
a temperaturas por encima de 465°C en todas las muestras,
y que se corrobora con los resultados de TGA, mostrando
la degradación termo-oxidativa del caucho, específicamente,
la ruptura y destrucción de enlaces simples y covalentes de
la red polimérica del caucho, como es de esperarse a esta
temperatura según lo señala [17].
Los estudios previos hechos por DSC, permitieron
además determinar el área bajo la curva en los distintos
picos, mediante el uso de la línea base para cada muestra
analizada; esta área es proporcional al valor de la entalpia de
cada evento (fusión y descomposición del caucho natural),
donde el área para el segundo y tercer pico Fig. 6 y 7, en
todas las muestras osciló entre 77 µJ*s/mg y 82,5 µJ*s/
mg y para el primer pico entre 64 µJ*s/mg y 78,9 µJ*s/
mg, aéreas que aunque son distantes para el primer pico,
es dependiente de la cantidad de masa de muestra usada
durante el análisis, ya que muestran la cantidad de energía
necesaria para que se lleve a cabo el respectivo proceso o
evento químico presente durante el calentamiento progresivo
del caucho natural [15]. No obstante y teniendo en cuenta
estas aéreas se puede deducir que aunque son distantes, se
presentan los mismo eventos térmicos tanto en DSC como
en TGA y que tienen lugar a la misma temperatura y tiempo.
IV. Conclusiones
Los resultados encontrados en los espectros IR y en
los termogramas TGA y DSC, demuestran, no sólo que las
técnicas térmicas son precisas, permitiendo caracterizar y
diferenciar cualquier proceso o evento químico y térmico,
sino que además, para efectos de este estudio, permitió
definir, que no existe una diferencia en la variación de la
concentración de ácido fórmico y ácido acético en el proceso
de coagulación del látex, teniendo en cuenta los resultados
térmicos.
Agradecimientos
Los autores expresan sus agradecimientos a la
Entre Ciencia e Ingeniería
Universidad de la Amazonía por facilitar los laboratorios
para los análisis de las muestras.
Igualmente, a la Universidad Nacional de Colombia sede
Medellín, por los análisis térmicos realizados a las muestras
de caucho.
Gracias también a la Asociación de Reforestadores y
Cultivadores de Caucho del Caquetá “ASOHECA”, por la
laminación de las muestras coaguladas, la determinación del
material volátil y el suministro de ácido fórmico.
Referencias
[1] Giraldo, D. & Velásquez, S. (2010). analisis de las caracteristicas
fisicoquimicas de caucho natural colombiano obtenido de tres
variedades clonales de Hevea brasíliensis y evaluacion de sus
tiempo obtimos de vulcanizacion. Grupo de materiales polimericos,
Departamento de ingenieria metalurgica y de materiales, Universidad
de Antioquia, COLOMBIA 1:1-8
[2] Quesada, I. ; Aristizabal, F. & Montoya, D. (2012). Caracterizacion
de dos parametros del latex de clones de Hevea brasiliensis. Revista
Elsevier 15:1-8.
[3] Martinez-Garnica A. & Garcia-Rubio F (2006). Investigaciones en
el cultivo de caucho en la orinoquia y norte amazonico. boletin de
investigacion 4:1-10.
[4] Tungngoen, K. ; Viboonjun, U. ; Kongsawadworakul, P. ; Katsuhara,
M. ; Julien, J. ; Chrestin, H. & Narangayavana, J. (2011). Hormonal
treatment of the bark of rubber trees (Hevea brasiliensis) increases
latex yield through latex dilution in relation with the differential
expression of two aquaporin genes. Journal of Plant Physiology
168:1-9.
[5] Colonna, P. (2010). La Quimcia verde. Págs. 211-235 en: J. S. Beuve
& L. V. Fredéric (eds). Editorial Acribia, S.A. Zaragoza ESPAÑA.
[6] Martins, M. A ; Dall´Antonia, A. C. & Mattoso, L. C. (2002).
caracterizacao mecanica de compositos de borracha natural/fibra de
sisal. Congreso Brasíleño de Ingenieria y Ciencia de Materiales:1-7.
[7] Malmonge, E. & Rogérico, M. (2006). comparacao entre a borracha
natural obtida do latex da Hancornia speciosa gomes e Hevea
brasíliensis. Congreso Brasíleño de Polimeros :1-2
[8] Chirinos-Collantes, H. D. (2008). Estudio de la obtencion de un
nanocompuesto de caucho natural reforzado con arcilla. Tesis
pregrado, Universidad Nacional del Callao. Perú: 1-146.
[9] Egboh, S & Mukherjee, A (1991). Adhesion Studies of Tyre Cords with
Rubber. Synthesis and Characterization of Natural Graft Copolymers.
Department of Textile Techonology. New Delhi, India 6: 1-8.
[10] Oliva, L.C.S ; Arruda, E. J. ; Favaro, S.P. ; Costa, R.B. ; Goncalves,
P.S. & Job, A.E. (2006). Evaluation of thermal behavior of latex
membranes from genetically improved rubber tre (Hevea brasiliensis).
Revista Elsevier 27:1-8.
[11] Fereshteh, M. ; Mercedeh. M & Taghvaei-Ganjali, S. (2013).
Investigation of correlation between rheological properties of rubber
compounds based on natural rubber/styrene-butadiene rubber with
their thermal behaviors. International Journal of Industrial Chemistry
4:1-16.
[12] Romero, P. & Desireé, R. (2002). Modificacion de las propiedades
de polipropileno con caucho natural. pregrado pregrado, Universidad
Central de Venezuela:1-106.
[13] Brazier, D. W (1990). Applications of Thermal Analytical Procedures
in the Study of Elastomers and Elastomer System. Págs. 408-509
en: D. W. Brazier (ed.). Differential thermal analysis (DTA) and
differential scanning calorimetry. Dunlop research, Sheridan park
research community. Mississauga, Ontario Canada.
[14] Mansilla, M. A. (2012). Influencia de la microestructrua Facultad en
las propiedades mecanicas y térmicas de mezclas caucho natural y
estireno butadieno. Tesis Doctoral. de Ciencias Exactas y Naturales.
Universidad de Buenos Aires. Argentina:1-150.
15
[15] Yang, J. & Roy, C. (1996). A new method for DTA measurement of
enthalpy change during the pyrolusis of rubbers. Revista Elservier
28:1-14.
[16] Narathichat, M. ; Kummerlöwe, C. ; Vennemann, N. & Nakason,
C (2010). Thermoplastic Natural Rubber Based on Polyamide-12:
Influence of Blending Technique and Type of Rubber on Temperature
Scanning Stress Relaxation and Other Related Propertiees. Center of
Excellence in Natural Rubber Technology, Faculty of Science and
Technology. Prince of Songkla University. Thailand:1-10.
[17] Martinez-Solano, J. F. & Bautista-Betancur, M. I. (2007). Estudio
Exploratorio para el Uso de Copolimeros Estireno-Caucho como
recubrimientos en Laminas de Metal de Hierro. Trabajo de Grado.
Facultad de ingenierias. Universidad Industrial de Santander.
Colombia:1-81.
Ana Milena Camacho Tàmara nació en Florencia Caquetá Colombia, el
21 de Mayo de 1992. Se graduó en la Institución Educativa Parroquial de
San José del Fragua y actualmente se encuentra terminando sus estudios
de Química en la Universidad de la Amazonía. Próximamente iniciará sus
estudios de Maestría en Química en la Universidad del Quindío.
Henry Reyes Pineda es ingeniero Químico egresado de la Universidad
Nacional de Colombia, Sede Manizales con Especialización en Educación
Ambiental, Especialización en Ingeniería Electroquímica y Corrosión,
Diploma de Estudios Avanzados en Tecnologías de Membranas,
Electroquímica y medio Ambiente Seguridad Nuclear y con un Doctorado
en Ingeniería Química y Nuclear de la Universidad Politécnica de Valencia,
España.
Actualmente es profesor de tiempo completo de la Universidad del
Quindío, Armenia, Colombia y Director de la Maestría en Química desde
el 2010 y hace parte del Grupo Químico en Investigación y Desarrollo
Ambiental.
Ha sido docente de la Universidad de Caldas, Universidad Nacional,
Universidad Católica de Pereira 47 Sede Manizales y Universidad Autónoma
de Manizales. Entre sus áreas de trabajo investigativo se encuentran La
Ingeniería Electroquímica, Los Procesos ambientales, el Tratamiento de
residuos sólidos y líquidos, el Diseño de Reactores, entre otros.
El Doctor Reyes Pineda, se graduó en el 2007, obteniendo la máxima
calificación en su Tesis Doctoral: “Cum Laude”Ha sido profesor visitante
en tres oportunidades a la Universidad Politécnica de Valencia, España y en
dos ocasiones a la Universidad de santa Cruz del Sur, Brasil, desarrollando
actividades académicas e investigativas. Igualmente ha participado como
conferencista en diferentes congresos nacionales e internacionales.
Universidad Católica de Pereira
16
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 16 - 22
Simulación de un proceso de logística inversa:
recolección y acopio de envases y empaques
vacíos de plaguicidas1
Simulation of a reverse logistics process:
collecting and stockpiling containers and empty
pesticides packaging
J. D. Silva y E. D. Contreras
Recibido Febrero 12 de 2015 – Aceptado Septiembre 23 de 2015
Resumen — Este artículo presenta el estudio realizado al
proceso de recolección y acopio de residuos de plaguicidas en
la unidad de riego Pantano de Vargas- Boyacá Colombia. Este
sistema puede incorporarse dentro de un proceso de logística
inversa (LI), debido al problema de manejo y tratamiento
inadecuado de estos residuos por parte de los agricultores. Para
el análisis de la situación planteada, se realizó una simulación
del proceso actual y a partir de este, se recrearon dos escenarios
posibles de operación de los recursos humanos y físicos en dicho
proceso. Mediante la evaluación de alternativas de mejora, se
planteó una configuración factible, que proporcionó la mayor
disminución del tiempo total del proceso de recolección y acopio
de los residuos. Con el escenario propuesto se puede lograr una
mejora del 46% en el tiempo total del proceso, al experimentar
con un modelo que incluye un operario y un vehículo adicional a
las condiciones actuales del proceso.
Palabras clave — simulación de eventos discretos, logística
inversa, plaguicidas, retorno de envases.
Abstract— this article presents a study carried out over the
recollection and accumulation of the pesticides residues process
in the irrigation unit known as Pantano de Vargas – Boyacá
Colombia. This system can be incorporated in a process of
1
Producto derivado del proyecto de investigación “Simulación del
proceso de logística inversa de envases y empaques vacíos de plaguicidas
en la unidad de riego Pantano de Vargas de Boyacá-Colombia”. Presentado
por el Grupo de Investigación LOGyCA de la Universidad de Boyacá en
convenio con COLCIENCIAS.
J.D. Silva docente en el Programa de Ingeniería Industrial, de la
universidad de Boyacá, Tunja (Colombia); email: [email protected].
co.
E.D. Contreras Director del Programa de Ingeniería Industrial, de la
universidad de Boyacá, Tunja (Colombia); email: econtreras@uniboyaca.
edu.co
Entre Ciencia e Ingeniería
reverse logistics due to the problem of bad management and
treatment of those residues by cultivators. For the analysis of this
situation, a simulation of the current process was proposed, and
based on it, two possible stages- scenes of operations of human
and physical resources in that process were created. Through
the evaluation of alternatives for the improvement, a possible
configuration that provided a higher decrease of total time of
the process of recollection of residues was established. With the
proposed scenery, it is possible to reach an improvement of 46%
in the total time of process, experimenting with a model that
includes an operator and an additional vehicle to the current
process conditions.
Key words— discrete events simulation, reverse logistics,
pesticides, return of packaging.
I. Introducción
E
n las últimas décadas se ha visto un crecimiento
constante
en el desarrollo de investigaciones
relacionadas con Logística Inversa (LI), tal como lo afirma
[1]. Por consiguiente autores como [2] –[7], han adelantado
distintas investigaciones con el fin de dar una visión
detallada sobre las aplicaciones y problemas asociados con
LI y asimismo dar una base sobre el diseño de sus procesos
en diferentes sectores económicos, describiendo una extensa
lista de sistemas y estructuras de ella existentes en la
literatura.
A lo largo de los años, varios autores han realizado
sus investigaciones con el fin de lograr una definición de
LI. La más utilizada es la propuesta por [8] en el Reverse
Logistics Executive Council, definida como “El proceso de
planificación, ejecución y control eficiente y rentable del
flujo de materias primas, inventario en proceso, productos
17
terminados e información relacionada desde el punto de
consumo hasta el punto de origen con el fin de recuperar valor
o realizar una correcta eliminación”. En lo concerniente a LI,
se han llevado a cabo investigaciones de carácter cualitativo
[9]-[12] cuyo objetivo se centra en evaluar sistemas de LI
implementados actualmente en las empresas. De igual forma
se han llevado a cabo estudios con enfoque cuantitativo [13][15], con el fin de diseñar nuevas redes de LI.
Por otra parte, al momento de aplicar LI, las empresas
buscan generar beneficios económicos, logísticos, financieros
y ambientales [16]. De esta forma, una manera correcta de
lograr estos beneficios es a través de la mejora ambiental de
productos y procesos por medio de la aplicación de sistemas
de LI, como por ejemplo la aplicación en los procesos
de recolección y disposición de envases de plaguicidas,
utilizando la simulación como una herramienta apropiada
para diseñar procesos y resolver problemas de LI. Según [1],
para modelar la complejidad de los problemas de LI y sus
procesos, la simulación puede ser una herramienta muy útil.
Debido a lo anterior, varios autores han empezado a
centrar sus esfuerzos en realizar estudios de LI donde la
simulación se convierte en una herramienta clave para el
apoyo a la toma de decisiones dentro de las organizaciones
[17], [18]. Existe una gran oportunidad de aplicar
metodologías de modelado para la gestión de los problemas
en LI relacionados con la recolección y disposición de
residuos de plaguicidas, con el fin de evitar el contacto
directo de estos desechos con los seres vivos. Autores
como [19]-[21], han adelantado investigaciones sobre el
tema donde afirman que ha aumentado la preocupación por
los riesgos que pueden generar tanto en los seres humanos,
como en el medio ambiente, la eliminación inadecuada o el
tratamiento indebido de estos residuos, convirtiéndose en un
riesgo para la salud humana, debido a que los agricultores
reutilizan estos envases para uso doméstico.
Del mismo modo autores como [22], [23], desarrollan
investigaciones con el objetivo de evaluar e identificar los
factores que llevan a los agricultores a realizar la devolución
de envases y empaques de plaguicidas, al igual que la
descripción de prácticas más comunes frente al manejo
de estos residuos. Por otra parte [24], combinan LI con
la recolección y disposición de envases de plaguicidas,
desarrollando una investigación con el objetivo de
diseñar un sistema de LI para la recolección de envases y
empaques vacíos de plaguicidas en una unidad de riego del
departamento de Boyacá – Colombia.
Dadas estas consideraciones, este artículo presenta los
resultados de una investigación desarrollada en la unidad
de riego Pantano de Vargas del departamento de Boyacá
– Colombia, donde actualmente se presenta un problema
de manejo y tratamiento inadecuado de los residuos de
plaguicidas por parte de los agricultores. De igual forma el
proceso que actualmente realiza la empresa encargada de la
recolección, acopio y disposición final de estos residuos es
totalmente empírico, ya que no utiliza ninguna herramienta
tecnológica ni ingenieril para la planificación de sus jornadas
de recolección, lo que ocasiona demoras en el proceso y
dificultades en la medición de la eficacia de dichas jornadas.
Debido a lo anterior, se desarrolló un modelo de
simulación del proceso de recolección de los envases y
empaques vacíos de plaguicidas que se realiza actualmente
en la zona bajo estudio, con el fin de diagnosticar el estado
actual del proceso y a partir del modelo desarrollado generar
escenarios donde se presenten propuestas de mejora en
cuanto a aspectos técnicos, para de esta manera, encontrar
un escenario que mejore el tiempo total de ejecución de las
jornadas de recolección, sin la inclusión de variables de
costos. La zona bajo estudio es la vereda Pantano de Vargas,
ubicada a 12 km del Municipio de Paipa y a 42 km de la
capital del departamento de Boyacá - Colombia, hace parte
de la asociación de usuarios del distrito de riego y drenaje del
alto Chicamocha y Firavitoba denominada Usochicamocha,
que comprende municipios como Duitama, Paipa y Tibasosa.
En este sentido, el presente artículo se estructura de la
siguiente manera: en la sección dos (2) se muestra la estructura
metodológica, donde se explica cada una de las fases que
se siguió para el desarrollo del modelo de simulación y su
posterior experimentación. Luego, en la sección tres (3) se
muestran de manera sintetizada los principales resultados
de la investigación así como las propuestas de mejora
de acuerdo con los escenarios generados del modelo
principal. Finalmente, en la sección cuatro (4) se presentan
las principales conclusiones, producto de la investigación
desarrollada.
II. Metodología
La investigación desarrollada es un estudio de caso
según los lineamientos de [25], la cual maneja dos niveles de
investigación: descriptivo y experimental. Para el desarrollo
de la simulación del proceso de recolección y acopio de
envases y empaques vacíos de plaguicidas, se siguió la
metodología expuesta por [26], compuesta por las siguientes
etapas, tal como se observa en la Fig. 1:
Fig. 1. Metodología para simulación basada en [26].
Con esta metodología se procedió al desarrollo del
proyecto que consta de las siguientes etapas:
Universidad Católica de Pereira
18
Etapa 1. Definición del sistema. En esta etapa se realizó
un diagnóstico del proceso que se desarrolla actualmente
en la unidad de riego Pantano de Vargas y a través de
la observación directa en las jornadas de recolección
adelantadas por la empresa encargada, se logró describir
detalladamente por medio de un diagrama de flujo, el
proceso actual de recolección de envases y empaques vacíos
de plaguicidas.
En ese mismo sentido, se realizó la recolección de
información en la zona bajo estudio con el fin de identificar
el número de agricultores involucrados y las técnicas
utilizadas en el acopio y entrega de desechos de plaguicidas a
la empresa recolectora. Posteriormente, se realizó un mapeo
de la zona, donde se llevó a cabo un muestreo intencional o
de conveniencia siguiendo los lineamientos expuestos por
[27], logrando la aplicación de 12 encuestas dirigidas a los
agricultores de la zona con mayor experiencia e influencia
en el tema de plaguicidas. Por último, se logró determinar
a través de toma de coordenadas, las rutas utilizadas en las
jornadas de recolección.
Etapa 2. Construcción del modelo. Luego de realizar el
diagnóstico del proceso, se construyó un modelo preliminar
para el proceso de LI bajo estudio en el software especializado
Flexsim versión 5, teniendo en cuenta el diagrama de flujo
obtenido en la etapa anterior.
Etapa 3. Recolección de datos. Siguiendo los
lineamientos de [28], se realizó una medición del trabajo
a través de un estudio de tiempos de las actividades que
componen el proceso de recolección, realizando una toma
de datos durante tres ciclos correspondientes a tres jornadas
de trabajo, con un criterio de cronometraje continuo para la
medición de dichos tiempos, donde se lograron obtener 93
datos de las actividades que son repetitivas en cada finca
generadora.
Asimismo, se recolectaron datos sobre cantidades
recogidas en cada finca, capacidad del vehículo y centro
de acopio, recursos utilizados en el proceso y demás datos
relevantes para el desarrollo del modelo.
Etapa 4. Implementación del modelo en la
computadora. En primera instancia, con ayuda de
la herramienta Stat::Fit del software para simulación
Promodel, se determinó la función de probabilidad que
representa de forma correcta el comportamiento de cada una
de las actividades que comprenden el proceso bajo estudio,
donde seguidamente se realizó un proceso de verificación
por medio de las pruebas de bondad de ajuste KolmogorovSmirnov y Anderson Darling. Posteriormente se realizó la
configuración interna de cada uno de los objetos del modelo
preliminar con el fin de representar los tiempos de las
actividades del sistema real en el modelo.
Fig. 2. Diagrama de proceso de recolección de envases y empaques
vacíos de plaguicidas.
Enseguida se modificaron los objetos del modelo base
por objetos 3D, con el fin de que el modelo de simulación
desarrollado sea similar al sistema real bajo estudio. Para
finalizar esta etapa se realizó la estabilización del modelo,
aplicando la técnica expuesta por [29].
Etapa 5. Verificación y validación. En esta etapa
se verifica, con ayuda del encargado del proceso de la
empresa recolectora, que el modelo de simulación realizado
represente el proceso de recolección, donde se constata que
se hayan incluido todas aquellas variables que inciden en el
proceso de LI y que van de acuerdo con la delimitación de
la investigación.
Una vez verificado el modelo, se procede a la validación
del mismo. La variable de validación fue el tiempo total
del proceso de LI, donde se realizó una prueba piloto de 10
corridas del modelo con el fin de determinar el número de
réplicas necesarias para la validación cuyo valor es de 15
réplicas, posteriormente se realiza un análisis de medias a
través de una prueba t Student para muestras independientes,
corroborando si hay igualdad en las medias del sistema real
y el modelo desarrollado en Flexsim.
Etapa 6. Experimentación. Sobre el modelo
desarrollado se plantearon diferentes escenarios posibles
cambiando la asignación de recursos físicos y humanos,
donde posteriormente se llevó a cabo una validación de
dichos escenarios, a través de la determinación del número
necesario de réplicas, estableciendo un nivel de confianza
del 95% y un nivel de significancia del 5% para cada uno de
los escenarios. De esta manera, se eligieron las alternativas
que generaron mejores resultados en cuanto a minimizar el
tiempo total de ejecución del proceso de LI.
III. Resultados y Discusión
A. Descripción del proceso actual de recolección
El proceso de recolección y acopio de envases y empaques
Entre Ciencia e Ingeniería
19
vacíos de plaguicidas que se desarrolla actualmente en la
unidad de riego Pantano de Vargas, es realizado totalmente
de forma empírica, ya que no tiene en cuenta las actividades
propias de LI como lo son devolución al proveedor, reciclaje,
reutilización, entre otras. Además, no se utiliza ninguna
herramienta tecnológica o de ingeniería que aporte tanto
en la planificación como en la ejecución de las jornadas de
recolección. Para el presente estudio se delimitó el proceso
en 3 etapas: alistamiento, recolección y acopio, en lo que
respecta a la etapa de disposición final de los residuos, esta
no se tuvo en cuenta debido a que se realiza en un lugar
diferente a la zona bajo estudio y por lo tanto no se incluyó
en esta investigación. En la figura 2 se muestra el diagrama
de flujo del proceso bajo estudio, donde se evidencian todas
las actividades que comprenden las etapas anteriormente
mencionadas. Asimismo, se observa el tiempo de ejecución
de cada una de las actividades.
- Fase de alistamiento. En primera instancia, en esta fase,
se ejecuta una evaluación al transporte, compuesta
inicialmente de una revisión y verificación de las medidas
mínimas de seguridad que debe tener el vehículo que va a
recolectar los residuos de plaguicidas. Posteriormente se
diligencia el formato de remisión de residuos peligrosos
(RESPEL) y para comenzar con el recorrido a las fincas,
finalmente se aprovisiona de combustible el vehículo.
- Fase de recolección. Inicialmente, por medio de una
volqueta, se realiza el recorrido por cada una de las fincas
de la unidad con el fin de que el generador haga entrega
de los residuos de plaguicidas a la empresa encargada.
En el trabajo de campo se evidenció que sólo 2 de cada
11 fincas entregan sus envases clasificados y con el
tratamiento adecuado, situación que ocasiona dificultad
en el proceso de clasificación y procesamiento de los
envases y además se incumple con el artículo 7 de la
Resolución 693 [30].
Posteriormente el operario recolector ubica el sitio donde
se encuentran situados los residuos de plaguicidas, para
efectuar una pre-inspección de los residuos y observar que
sean exclusivamente residuos de plaguicidas, además de
detallar el estado en que se encuentran estos residuos. En
el momento de tener asegurados los desechos, se procede
a trasladarlos hasta el vehículo, donde se verifica el tipo y
cantidad de los residuos entregados, diligenciando un acta
de entrega de RESPEL firmado por el agricultor que realiza
la entrega.
- Fase de acopio. Al finalizar el recorrido por la totalidad
de las fincas, el vehículo se desplaza al centro de acopio
correspondiente. En primera instancia en el centro de
acopio, se ubica el sitio adecuado donde se realiza el
descargue de los residuos recolectados. Posteriormente,
el operario recolector procede a ordenar los residuos en
el centro de acopio para apilarlos de forma segura.
B. Modelo de simulación
Inicialmente se llevó a cabo una recolección de datos
por medio de un estudio de tiempos, logrando recolectar
93 datos de aquellas actividades que son repetitivas en cada
finca generadora como lo son: desplazamiento a cada finca,
transporte a lugar de acopio en finca, pre-inspección de
los residuos y transporte de los residuos hasta el vehículo,
las cuales pueden considerarse de naturaleza estocástica o
probabilística y son representadas a través de distribuciones
de probabilidad.
En la figura 3, se puede observar el resultado del
estudio de tiempos donde se evidencia el tiempo estándar
de cada una de las actividades que comprenden el proceso
de LI. Se logró determinar el tiempo estándar del proceso
de LI correspondiente a 365,2 min, además se identificó
la actividad “desplazamiento a cada finca generadora de
RESPEL”, como cuello de botella del proceso, pero debido
su naturaleza esta actividad siempre poseerá el mayor tiempo
de ejecución. Debido a lo anterior, se deben intervenir
las demás actividades, con el fin de reducir el tiempo de
ejecución de cada una de ellas y así reducir el tiempo total
del proceso.
Por otra parte, para los datos recolectados de las
actividades que se realizan una única vez en cada jornada
de recolección, se tomó la media como una estimación del
comportamiento de las variables. Debido a la disponibilidad
de datos y tiempo sólo se lograron obtener tres datos de
dichas actividades, por ende dichas variables no podrán ser
ajustados a una distribución de probabilidad para representar
su comportamiento dentro del proceso.
Fig. 3. Tiempos estándar de las actividades del proceso de LI.
De igual forma, se determinaron las distribuciones
de probabilidad a las que se ajustan las actividades de
naturaleza estocástica, a través de la herramienta Stat::Fit del
software Promodel y se configuraron los objetos del modelo
que representan dichas actividades. En la tabla 1 se observan
las distribuciones de probabilidad a las que se ajustan estás
actividades y asimismo los resultados de las pruebas de
bondad de ajuste Kolmogorov- Smirnov y Anderson Darling.
Universidad Católica de Pereira
20
TABLA I
Distribución de Probabilidad de actividades estocásticas
Donde:
- S: Desviación estándar de la muestra inicial (10 corridas)
Posteriormente se llevó a cabo una etapa de validación
del modelo, iniciando con el calculó de las réplicas “(1)”
necesarias para realizar una prueba t Student para dos
muestras con varianzas iguales bajo la hipótesis nula que
existe igualdad de medias en las dos muestras, con un
nivel de significancia del 5% y nivel de confianza del 95%,
tomando como variable de decisión el tiempo total del
proceso de recolección.
Finalmente en la Fig. 4 se observa el modelo final
acondicionado con objetos 3D relacionados con el proceso de
LI, reemplazando los objetos utilizados de la librería de Flexsim
por objetos 3D. Las figuras que reemplazaron la estructura
de objetos fueron obtenidos de la librería Google SketchUp.
Fig. 4. Vista frontal del modelo de simulación del proceso de LI.
Entre Ciencia e Ingeniería
- t (n-1,∝/2) : es la distribución de probabilidad de t Student
para un nivel de significancia α y n-1 grados de libertad.
- ε: Error relativo admisible
En la Tabla II, se observa la prueba t para validar el
modelo, donde se concluye que no existe diferencia entre el
modelo desarrollado en el software Flexsim y el sistema real,
ya que el estadístico t (0.24) es menor al valor critico (4.30),
además se afirma que el modelo de simulación desarrollado
representa confiablemente al proceso actual de recolección
y acopio de residuos de plaguicidas y sirve como base
fundamental para posibles mejoras que se puedan realizar al
proceso actual.
21
TABLA II
Prueba t para validación del modelo
una mejora en el proceso del 46%. El modelo propuesto
produce las mejores y más viables condiciones adaptables
al sistema real que genera la mayor reducción del tiempo
total del proceso de recolección y acopio de los residuos de
plaguicidas.
TABLA III
Análisis de estados de los escenarios propuestos
Al realizar el análisis de salida de datos del vehículo
recolector de RESPEL que representa la actividad cuello de
botella, se pudo evidenciar que el 73,7% del tiempo total
del proceso, corresponde a los desplazamientos que realiza
el vehículo de finca a finca cronometrando un tiempo de
271,46 min. Asimismo, se pudo observar que del tiempo
total del proceso de recolección, el vehículo utiliza el 19,5%
(71,82 min) para cargar los residuos que son generados en
cada finca. Finalmente, solo el 6,8% del tiempo del proceso
el vehículo no realiza ninguna actividad, es decir existe un
tiempo ocioso o improductivo de 25,04 min.
De igual manera se realizó un análisis de salida de
datos para el operario recolector, donde se evidenció que
el 80,79% del tiempo total del proceso (297,58 min), el
operario debe esperar a que se desarrollen ciertas actividades
como transporte finca a finca y diligenciamiento de
formato de entrega de RESPEL, para poder desarrollar las
actividades que se le tienen asignadas. Por otra parte, para
realizar la actividad correspondiente al transporte al lugar
de acopio en finca, el operario emplea el 6,42% del tiempo
total del proceso equivalente a 23,64 min y para desarrollar
la actividad de transporte hasta el vehículo, el operario
recolector utiliza 25,89 min, es decir el 7,03% del tiempo
total del proceso.
Con base en la información anterior, se generaron dos
escenarios posibles para la mejora del proceso actual en
términos de reducción del tiempo total del proceso. El
primer escenario se caracteriza por adicionar un operario
que apoye las actividades de pre inspección y recolección de
los residuos generados en cada finca. El segundo escenario
se caracteriza por adicionar un vehículo para la recolección
que en conjunto con el segundo operario adicionado en el
escenario 1, tomarán una ruta alterna para recorrer 6 de las
11 fincas generadoras de la unidad de riego. En la tabla III se
observan los resultados del análisis de salida de datos de los
diferentes escenarios.
La mejora más representativa se puede observar en la
disminución del tiempo de proceso en cada escenario, siendo
el número 2 el más favorable con 168.86 min, respecto
al modelo del sistema actual, este escenario representa
IV. Conclusiones
El proceso de recolección y acopio de envases y empaques
vacíos de plaguicidas actual, no se puede considerar como LI,
debido a que no aplica actividades propias de la misma y no
se utiliza ninguna herramienta tecnológica o ingenieril para
la planificación y ejecución de las jornadas de recolección.
El proceso bajo estudio se compone de 3 etapas: alistamiento
de los recursos para la jornada, recolección de los residuos
generados en cada finca y acopio del total de los residuos
recolectados en la jornada.
La principal causa del alto tiempo de ejecución de las
jornadas de recolección se debe al desplazamiento a cada
finca generadora de RESPEL, con un tiempo total de proceso
de 233,3 min, esto se debe a la naturaleza de dicha actividad.
Por otra parte el operario tiene un tiempo de espera de 297,58
min para poder realizar la pre-inspección y recolección
de RESPEL en cada finca generadora, lo cual se debe a la
actividad de desplazamiento hacia las fincas.
Mediante la experimentación con el modelo de
simulación, se plantea el escenario 2 como mejora sustancial
con el objetivo de reducir el tiempo total del proceso, este
cuenta con 2 operarios recolectores y 2 vehículos, donde se
asigna un operario y un vehículo para cada ruta, con el fin
de dividir el número de fincas generadoras de la unidad bajo
estudio y así lograr una reducción en el tiempo del 46% lo que
corresponde a 168.86 min. Se recomienda realizar un estudio
sobre los costos que generaría el montaje de este escenario
para evaluar la viabilidad de realizar la implementación en el
sistema actual y analizar el costo-beneficio que esta traería.
Para futuras investigaciones se recomienda adelantar
estudios cuyo objetivo sea el diseño de una red de logística
inversa para el proceso de recolección y acopio. Asimismo,
investigaciones encaminadas a determinar la ruta óptima
para realizar las jornadas de recolección.
Universidad Católica de Pereira
22
Referencias
[1] D.S. Rogers, B. Melamed and R.S. Lembke. “Modeling and analysis
of reverse logistics,” Journal of Business Logistics, vol. 33, no. 2, pp.
107-117, 2012.
[2] C. R. Carter and L.M. Ellram. “Reverse logistics--a review of the
literature and framework for future investigation,” Journal of business
logistics, vol. 19, pp. 85-102. 1998
[3] V. Jayaraman, V.D.R. Guide Jr. and R. Srivastava. “A closedloop
logistics model for use within a recoverable manufacturing
environment,” Journal of Operational Research Society, vol. 50, no. 5,
pp. 497–509. 1999.
[4] D.S. Rogers, B. Melamed and R.S. Lembke. Going Backwards.
Reverse Logistics Trends and Practice. Pittsburgh, PA: Council of
Logistics Management. 1999.
[5] S. Dowlatshahi. “Developing a theory of reverse logistics,” Interfaces,
vol. 30, no. 3, pp. 143-155. 2000.
[6] J. R. Stock and J. P. Mulki. “Product returns processing: an examination
of practices of manufacturers, wholesalers/distributors, and retailers,”
Journal of Business Logistics, vol. 30, no. 1, pp. 33-62. 2009.
[7] V. D. R. Guide Jr. and L. N. Van Wassenhove. “OR FORUM-the
evolution of closed-loop supply chain research,” Operations Research,
vol. 57, no. 1, pp. 10-18. 2009.
[8] D. Rogers. Glossary. Disponible en: http://www.rlec.org/glossary.html.
2007
[9] J. Demajorovic, M.K. Zuniga Huertas, J. Alves Boueres, A.G. da Silva
and A. Sousa Sotano. “Logística reversa: como as empresas comunicam
o descarte de baterias e celulares,” Revista de Administração de
Empresas, vol. 52, no 2, pp. 165-178. 2012.
[10]D. Adlmaier and M.A. Sellitto. “Embalagens retornáveis para transporte
de bens manufaturados: um estudo de caso em logística reversa,”
Revista Produção, vol. 17, no 2, pp. 395-406. 2007.
[11]D.A. Lopes Silva, G.W. Santos Renó, G. Sevegnani, T.B. Sevegnani
and O.M. Serra Truzzi. “Comparison of disposable and returnable
packaging: a case study of reverse logistics in Brazil,” Journal of
Cleaner Production, vol. 47, pp. 377-387. 2013.
[12]J. Parada. Incorporación de la Logística Inversa en la Cadena de
Suministros y su influencia en la estructura organizativa de las
empresas. Editorial Universitat de Barcelona, 2010.
[13]A. Diabat, T. Abdallah, A. Al-Refaie, D. Svetinovic and K. Govindan.
“Strategic closed-loop facility location problem with carbon market
trading.Engineering Management,” IEEE Transactions on, vol. 60, no.
2, pp. 398-408. 2013.
[14]Z.H. Che, T.A. Chiang, and Y.C. Kuo. “Multi-echelon reverse supply
chain network design with specified returns using particle swarm
optimization,” International Journal of Innovative Computing,
Information and Control, vol. 8, no. 10, pp. 6719-6731. 2012.
[15]M. Hosseinzadeh and E. Roghanian. “An Optimization Model for
Reverse Logistics Network under Stochastic Environment Using
Genetic Algorithm,” International Journal of Business and Social
Science, vol. 3, no. 12, pp. 1-17. 2012.
[16]M. Gallo, T. Murino, y E. Romano. “The Simulation of Hybrid Logic
in Reverse Logistics Network,” Selected Topics in System Science and
Simulation Engineering, pp. 378-384. 2010.
[17]V. Ravi, and R. Shankar. “Analysis of interactions among the barriers of
reverse logistics,” Technological Forecasting and Social Change, vol.
72, no. 8, pp. 1011-1029. 2005.
[18]A. Jayant, P. Gupta and S.K. Garg. “Design and Simulation of Reverse
Logistics Network: A Case Study,” in Proceedings of the World
Congress on Engineering. Julio 2011, vol. 1.
[19]S. Elfvendahl, M. Mihale, M.A. Kishimba and H. Kylin. “Pesticide
pollution remains severe after cleanup of a stockpile of obsolete
pesticides at Vikuge, Tanzania,” AMBIO: A Journal of the Human
Environment, vol. 33, no. 8, pp. 503-508. 2004.
[20]S. D. Sivanesan, K. Krishnamurthi, S. D. Wachasunder and T.
Chakrabarti. “Genotoxicity of pesticide waste contaminated soil and
its leachate,” Biomedical and Environmental Sciences, vol. 17, no. 3,
pp. 257-265. 2004.
[21]A. Buczyńska, and I. Szadkowska-Stańczyk. “Identification of health
hazards to rural population living near pesticide dump sites in Poland,”
International Journal Occupational Medicine Environmental Health,
vol. 18, no. 4, pp. 331-339. 2005.
Entre Ciencia e Ingeniería
[22]I. D. Haylamicheal and M.A. Dalvei. “Disposal of obsolete pesticides,
the case of Ethiopia,” Environment international, vol. 35, no 3, pp. 667673. 2009.
[23]W.J. Ladeira, A.E. Maehler and L.F. Machado do Nascimento. “Logística
reversa de defensivos agrícolas: fatores que influenciamnaconsciência
ambiental de agricultores gaúchos e mineiros,” Revista de Economia e
Sociologia Rural, vol. 50, no 1, pp. 157-174. 2012.
[24]E.D. Contreras, A.M. Fraile and J.D. Silva. “Diseño de un sistema de
logística inversa para la recolección de envases y empaques vacíos de
Plaguicidas,” Revista Ingeniería Industrial, vol. 12, no. 2, pp. 29-42.
2013.
[25]R. K. Yin. Case Study Research: Design and Methods. 3rd Edition.
Sage Publications. 2003.
[26]Law A. M. y Kelton W. D. Simulation Modeling and Analysis. 3a Ed.
Singapur. Mc Graw-Hill. 2000
[27]T. Kinnear and J. Taylor. Investigación de mercados. 5ta Ed. Bogotá
D.C. Colombia. McGraw-Hill. 1998.
[28]B.W. Niebel and A. Freivalds. Ingeniería industrial. Métodos, estándares
y diseño del trabajo. Mexico. Mc Graw Hill interamericana. 2009.
[29]M. Azarang and E. Dunna. Simulación y análisis de modelos
estocásticos. Mexico D.F. McGraw Hill Interamerica Editores S.A,
1996. 282 p.
[30]Resolución 693/2007. Colombia, Diario Oficial de la República, 24 de
Abril de 2007, núm. 46.609.
Julián David Silva Rodríguez nació en Tunja, Boyacá, Colombia, el 21
de Mayo de 1992. Se graduó como Ingeniero Industrial en la Universidad
de Boyacá en el año 2013. Actualmente está adelantando sus estudios
de Maestría en Ingeniería con énfasis en Industrial en la Universidad
Pedagógica y Tecnológica de Colombia.
Durante su estudio de pregrado, laboro como auxiliar de investigación
en el programa de Ingeniería Industrial de la Universidad de Boyacá,
asimismo profesionalmente ejerció como Joven Investigador en el mismo
programa y en convenio con el Departamento Administrativo de Ciencia
y Tecnología de Colombia (COLCIENCIAS). Ejerce actualmente como
docente investigador del programa de Ingeniería Industrial de la Universidad
de Boyacá.
El profesor Silva pertenece al Grupo de Investigación Logística,
Operaciones, Gestión y Calidad – LOGyCA de la Universidad de Boyacá,
y al Grupo de Investigación Observatorio de la Universidad Pedagógica y
Tecnológica de Colombia - UPTC.
Eduin Dionisio Contreras Castañeda nació en Tunja, Boyacá, Colombia,
el 26 de Agosto de 1982. Se graduó como Ingeniero Industrial en la
Universidad de Boyacá en el año 2005. De igual forma se graduó como
especialista en Gestión de Productividad y Calidad de la Universidad
Autónoma de Colombia en el 2008 y como magister en Diseño y Gestión de
Procesos de la Universidad de la Sabana en el 2012.
Se ha desempeñado como docente de tiempo completo durante más de
siete años investigando en las áreas de Gestión de la Calidad y Logística.
También se ha desempeñado como docente a nivel de posgrado en el área
de Ingeniería de Procesos. Actualmente ejerce como director del programa
de Ingeniería Industrial de la Universidad de Boyacá.
El profesor Contreras pertenece al Grupo de Investigación Logística,
Operaciones, Gestión y Calidad – LOGyCA de la Universidad de Boyacá.
23
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 23 - 30
Educación matemática en Colombia,
una perspectiva evolucionaria1
Mathematics education in Colombia,
an evolutionary perspective
M. E. Murcia y J. C. Henao
Recibido Mayo 23 de 2015 – Aceptado Septiembre 23 de 2015
Resumen—El presente artículo de revisión, plantea de forma
concreta algunos elementos epistemológicos de la formación del
pensamiento matemático para el nivel de educación básica y media en
Colombia, con los posibles errores metodológicos que se cometen en
los procesos de transformación del lenguaje común hacia el lenguaje
matemático estructurado; igualmente presenta algunas nuevas
tendencias de formación que son punto de partida para la investigación
que actualmente se desarrolla.
Palabras clave—aprendizaje, didáctica, lógica formal, lógica
natural, pensamiento matemático, robótica.
Abstract — This review article presents some epistemological
concretely training elements of mathematical thinking to the level of
primary and secondary education in Colombia, within the possible
methodological errors made in the transformation processes in
common language towards the structured mathematical language; It
also presents some new training trends as a starting point for a research
that is currently being developed.
Key words — learning, didactics, formal logic, natural logic,
mathematical thinking, robotics.
Introducción
D
e manera recurrente se han encontrado en el contexto
escolar de la educación primaria, básica secundaria
y media, dificultades en los procesos de enseñanza de las
1
Producto derivado del proyecto de investigación “didáctica para
potenciar el pensamiento matemático mediante el uso de dispositivos lego”,
perteneciente al grupo de investigación GEMA, avalado por la Facultad
de Ciencias Básicas e Ingeniería, presentado en la convocatoria interna de
2014 en la Universidad Católica de Pereira.
M. E. Murcia es Magíster en la Enseñanza de las Matemáticas, docente
catedrático de la Universidad Católica de Pereira y docente nombrado del
Magisterio Nacional, Pereira (Colombia); correo e.: euclides.murcia@ucp.
edu.co.
J. C. Henao es Magíster en la Administración de la Informática
Educativa, docente catedrático de la Universidad Católica de Pereira y
docente nombrado del Magisterio Nacional, Pereira (Colombia) ; correo e.:
[email protected].
matemáticas que quedan directamente evidenciados en
los procesos de aprendizaje de los niños y jóvenes cuya
formación está enmarcada en estos niveles y que sin lugar
a dudas permea hasta la educación terciaria, tal como lo
expone en sus conclusiones [1] y que vienen igualmente
sustentados por los resultados alcanzados por los estudiantes
en las pruebas que aplica desde el año 2007 el Programa
de Evaluación Internacional de los Estudiantes (PISA),
analizados en sus conclusiones por [2] y que establece
que los estudiantes colombianos tienen un nivel de rezago
de aproximadamente dos años de escolaridad según la
comparación realizada con estudiantes de su misma edad en
otras latitudes.
Sin embargo, esta problemática lejos está de ser
consecuencia coyuntural de una situación reciente, de
hecho el problema de la enseñanza y aprendizaje de casi
cualquier ciencia –entre ellas la matemática–, se debe a
la forma misma como se ha entendido históricamente la
educación en Colombia, desde hace aproximadamente 50
años y específicamente a la forma como se hace la lectura
en contexto de los roles del docente, el estudiante y el saber.
En este sentido, [3] plantea que los modelos educativos
latinoamericanos, entre ellos el colombiano se caracterizan
por incorporar las prácticas educativas exitosas de otros
países, simplemente traduciendo capítulos de libros o
textualizando modelos pedagógicos sin desarrollar una
construcción general propia, que se ajuste, de forma muy
específica, a las condiciones propias del contexto.
En la década de los ochenta, el Ministerio de Educación
Nacional era el ente que regulaba el currículo escolar y
determinaba los contenidos que debían enseñarse, sin
embargo con la aparición de la Ley 115 de 1993 –Ley
General de Educación–, se le confiere a cada institución una
autonomía curricular para desarrollar su propio proyecto
educativo y en consecuencia aparecen casi tantas propuestas
Universidad Católica de Pereira
24
como instituciones, lo que llama el Dr. Vasco, “Un caos
curricular” citado en [4], y aunque pueden distinguirse
ciertas corrientes pedagógicas dominantes, cada una tenía
un enfoque propio, lo cual se convirtió en factor adverso
para la formación del estudiante en situación de movilidad,
así se desdibujan en estas propuestas los fines mismos de la
educación promulgados en la legislación vigente.
Ahora, el problema de la formación de pensamiento
matemático no es ajeno a esta problemática y demanda
según [5] una profunda reflexión epistemológica; de igual
forma en [6] se plantea que existe una gran brecha que
separa los procesos de pensamiento no formal en los niños y
jóvenes colombianos, y los procesos de pensamiento lógico
formal y pensamiento matemático estructurado a los que se
aspira a que estos chicos lleguen en la justa proporción, al
nivel de desarrollo para su edad. En este sentido, el Estado
colombiano viene implementando diferentes estrategias
para dar solución a esta problemática y es así como desde
los últimos cuatro gobiernos, por lo menos, las políticas de
Estado en los planes nacionales de desarrollo, en el capítulo
de educación de las referencias [7] y [8] buscan fortalecer, en
primera instancia las competencias docentes, marcando un
norte a través de los lineamientos curriculares establecidos en
[9] que permitan unificar el “Caos curricular” en corrientes
de pensamiento, y es así como aparecen precisamente los
tipos de pensamiento matemático que agrupan los ámbitos
de desarrollo de esta área.
En una segunda línea, el Estado viene acompañando el
sector educativo en programas complementarios liderados
por diferentes entidades como Bienestar Familiar, Ministerio
de Educación e inclusive desde la misma Presidencia de la
República; programas como seguridad alimentaria, de Cero a
Cinco, A que te Cojo Ratón, Supérate con el Saber, Supérate
con el Deporte, entre otros, logrando con esta dinámica
impactar positivamente el sector educativo. Aunando en
esta situación, aunque este direccionamiento es provechoso
para el sector, se debe precisar que los esfuerzos realizados
por el Gobierno Nacional no son suficientes para alivianar
la brecha que existe todavía en el sector educativo, con
respecto a calidad propiamente dicha.
II. Desarrollo de los procesos de enseñanza
de la matematica en colombia desde las tres
últimas décadas
Con el fin de establecer una base conceptual sólida
que explique mejor el contexto en el cual actualmente se
desenvuelve los procesos curriculares de las matemáticas,
resulta conveniente establecer algunos elementos
conceptuales alrededor de la evolución de los enfoques que
tuvo esta disciplina a lo largo de las cuatro últimas décadas
en Colombia.
Iniciando en la década de los ochenta, el Estado
Colombiano hace un esfuerzo por modernizar la educación
Entre Ciencia e Ingeniería
a través de un modelo que en su momento fue llamado la
“Renovación Curricular” y que de forma específica para las
matemáticas buscaba superar las dificultades del modelo
anterior que se centraba en las categorías abstractas y el rigor
lógico matemático. Según lo planteado en los lineamientos
curriculares del MEN en [9] la programación de los cursos
de matemáticas se hacía por contenidos, lo que implicaba
la colección más o menos hilada de una serie de temas en
cada área que se consideraban importantes que el estudiante
aprendiera, estas áreas estaban bien delimitadas y sus
contenidos tenían unos tiempos específicos para su desarrollo;
en este contexto, el pensamiento matemático favorecía
organizar los diferentes aspectos de las matemáticas hacia
una “Estructura Sistémica” que permitiera comprenderla
como un todo estructurado, esto en reemplazo del “Enfoque
estructural de los conjuntos” que indiscutiblemente
demandaba una comprensión más rigurosa y menos flexible
de los principios simbólicos.
Con la Ley 115 de 1991, el Ministerio de Educación
Nacional propone una serie de lineamientos curriculares
en diversas áreas del conocimiento, que buscan orientar los
procesos de aula hacia unos fines comunes y consagrados
en la misma ley; el Estado con el fin de concretizar estos
lineamientos, elabora los estándares básicos de competencias
para cada una de las áreas, garantizando unos mínimos de
calidad con los cuales se pueda tener algún tipo de control y
regulación. Por su parte y debido a cambios en los enfoques
de la matemática como objeto susceptible de ser enseñado
y aprendido, se desprende, en igual medida, la necesidad de
cambio de los principios y fines de la evaluación; la cual a
su vez, paulatinamente va perdiendo su carácter sumativo,
acumulativo y determinístico, pasando de ser el objetivo
último del proceso educativo, a ser considerada como un
medio y una herramienta que cuantifica y cualifica el nivel
de desarrollo de un proceso o el nivel de alcance de una meta;
en este contexto se replantea la evaluación orientada hacia
los procesos más que hacia los resultados, encontrándose
dos momentos importantes en el desarrollo histórico de su
enfoque, el primero es la evaluación de logros y el segundo
una evaluación por desempeños.
Dentro de este marco, en la evaluación por logros, los
procesos curriculares en el aula de clase se orientan hacia
la consecución de un conjunto de habilidades cognitivas o
cognoscitivas que dieran indicativos del dominio conceptual
de la competencia; en la evaluación por desempeños se
hace más énfasis en el camino que recorre el estudiante
para alcanzar esa competencia, así lo plantea [10] y que se
evidencian no por el logro alcanzado sino por los desempeños
cuantificables que aparecen al momento de desarrollar la
competencia.
III. Referentes curriculares del pensamiento
matemático actual
Como puede inferirse de la sección anterior, la propuesta
curricular que tiene el Estado colombiano es un modelo
25
evolucionario de varias décadas que replantea continuamente
el rol que deben desempeñar tanto los docentes como los
estudiantes y la posición que deben asumir las partes frente al
conocimiento, lo que debe ser enseñando y qué de esto debe
ser aprendido; en este contexto se establece una propuesta
curricular que favorece no solo el desarrollo del pensamiento
matemático en los estudiantes para comprenderla sino también
favorecer la adquisición de nuevos tipos de herramientas de
pensamiento que les permita explorar, comprender, predecir
e impactar constructivamente su realidad, para que actúe
competentemente en ella tal como se define en [11] y [12] de
forma flexible e integrada, así la propuesta nacional se centra
en organizar en tres aspectos fundamentales.
No obstante, el primer aspecto son los procesos generales
que enmarcan básicamente las operaciones mentales a
desarrollar por parte de los estudiantes, el segundo son los
conocimientos básicos que desarrollan procesos específicos
del pensamiento matemático y los sistemas propios de
las matemáticas y como tercer aspecto el contexto que se
relaciona con el ambiente y la forma como se crea y recrea
cultura; en esta misma dirección, uno de los problemas que
plantea el mismo MEN es el riesgo de interpretación pasiva
en la cual se pudieran ver cada una de estas dimensiones como
aspectos independientes, siendo la verdadera intencionalidad
la integración y transversalidad de estos elementos.
A este respecto, en este escenario, se hace un fuerte énfasis
en las Situaciones Problema como contexto referencial para
acercarse al conocimiento matemático en la escuela, estas
situaciones problema tal como lo expone [13], [14] y [15]
son elementos impulsadores del aprendizaje interdisciplinar
que capturan el interés del estudiante, al ver aplicado en
contextos familiares, laborales, deportivos o lúdicos entre
otros el conocimiento adquirido.
el pensamiento espacial, el pensamiento métrico, el
pensamiento aleatorio y el pensamiento variacional.
En consecuencia, el pensamiento numérico busca
desarrollar en el estudiante una comprensión general de
los números y las operaciones asociadas a ellos para que
piense flexiblemente y pueda hacer juicios matemáticos
con la habilidad para comunicar, procesar e interpretar
información numérica. En el pensamiento espacial y
los sistemas geométricos el currículo se enfoca hacia el
desarrollo de procesos cognitivos para construir, manipular e
interpretar representaciones mentales de objetos en el plano
o el espacio, las relaciones entre ellos, sus transformaciones
y sus propiedades. Para el pensamiento métrico y los
sistemas de medida se espera que el estudiante desarrolle
sus habilidades para cuantificar diferentes parámetros en
diversas situaciones, que los pueda comparar y establecer
entre ellos relaciones, usando magnitudes y unidades. En el
pensamiento aleatorio y los sistemas de datos la propuesta
curricular del MEN se orienta a desarrollar la curiosidad y la
indagación mediante los contenidos de la probabilidad y la
estadística integrando la construcción de modelos analíticos
que expliquen situaciones específicas de la cotidianidad
del estudiante; en este escenario según [16] se favorecen
los procesos de pensamiento inductivo, inferencial y
pensamiento divergente. Finalmente en el pensamiento
variacional y los sistemas algebraicos analíticos se espera
superar la enseñanza de contenidos algebraicos segregados,
pues demanda una articulación intencionada de todos los
contenidos y pensamientos a fin de alcanzar un dominio
conceptual estructurado.
En algunas ocasiones, debido a la atomización errada de
estos tipos de pensamiento en la escuela, donde cada eje se
trabaja de forma autónoma, viene adquiriendo cada vez más
fuerza dentro de la propuesta curricular del Estado, la unión
de estos pensamientos en tres categorías importantes que
buscan precisamente integrar estos conocimientos por parte
del docente y los saberes por parte del estudiante
•
•
•
Pensamiento numérico variacional
Pensamiento métrico geométrico
Pensamiento aleatorio.
Actualmente el espíritu de estas reformas curriculares
buscan desarrollar en el estudiante algún nivel de autonomía,
con capacidad de pensar divergentemente y así poder resolver
problemas reales a través de la matemática, sin embargo los
indicadores que se muestran en la sección siguiente, sugieren
que no se han obtenido los resultados esperados.
Fig. 1. Propuesta curricular del MEN para el área de matemáticas.
Adaptado de los Lineamientos curriculares para el área de
matemáticas
Con referencia a los conocimientos básicos en
matemáticas, la propuesta curricular del MEN los categoriza
inicialmente en cinco estadios, el pensamiento numérico,
IV. El problema de la enseñanza y aprendizaje
de las matemáticas en Colombia
En términos generales es un hecho que la calidad de la
educación en Colombia no responde a los estándares
esperados tanto a nivel nacional como a nivel internacional,
tal como lo sustenta [17]; referentes nacionales como los
Universidad Católica de Pereira
26
proporcionados por el ICFES o referentes internacionales
como las pruebas realizadas por PISA, SERCE y TIMSS
comparativamente indican bajos resultados, por lo menos
en tres áreas del conocimiento –Lectura, Ciencias y
Matemáticas– tal como lo expone [3] con base en el informe
presentado en [18] y de cual se extraen los datos que se
muestran en la tabla 1, dejando a Colombia en el puesto 62
dentro de un ranking de 65 países participantes, lo que se ha
convertido en tema álgido de debate en la nación.
Ante esta situación, el estado colombiano viene
impulsando nuevas propuestas de evaluación y de seguimiento
anuales a los estudiantes, con la intención de identificar de
forma específica las causas, con sus posibles alternativas de
solución, para mejorar la calidad y que se vea reflejado en
estos indicadores; para ello [19] y [20] plantean, que para
disminuir esas grandes brechas y desigualdades en el sistema
educativo colombiano es necesario compensar a aquellos
grupos sociales que se encuentran en desfavorabilidad,
igualmente deben crearse políticas de estímulo para la
capacitación y actualización permanente de los docentes.
tabla i.. resultados de las pruebas pisa aplicadas en el
2012
Así mismo, otro indicador de la calidad educativa que
viene adquiriendo validez, reconocimiento y aceptación
ante la sociedad colombiana, son los resultados en las
pruebas saber para los grados tercero, quinto, noveno y
once, las cuales evalúan los conocimientos y habilidades de
los estudiantes colombianos en las áreas de matemáticas,
lenguaje, ciencias naturales, ciencias sociales y competencias
ciudadanas de tercero a noveno y para grado once pruebas
equivalentes agregando el idioma extranjero. Sobre las bases
de los tópicos expuestos, los resultados de estas pruebas son
categorizados por tipos de colegio, niveles socioeconómicos,
edades y género entre otras variables.
Entre Ciencia e Ingeniería
Fig. 2. Resultados de las pruebas SABER, grado tercero para los
años 2012, 2013 y 2014. Fuente. www.icfes.gov.co
Fig. 3. Resultados de las pruebas SABER, grados quinto y noveno
para los años 2009, 2012, 2013 y 2014. Fuente. www.icfes.gov.co
En las figuras anteriores se ilustran los porcentajes
de desempeño en el área de matemáticas para todos los
estudiantes en Colombia que presentaron las pruebas
SABER, puede apreciarse que no existe un cambio
significativo en los resultados de las pruebas censales
desde el año 2009 hasta el año 2014 –de hecho los índices
muestran una desmejora en los porcentajes de desempeño de
los estudiantes– lo cual puede llevar a inferir el poco nivel de
impacto en las políticas nacionales, regionales y locales para
el mejoramiento de calidad, aunque la responsabilidad no
debe recaer solo en el Estado, esta debe ser compartida por
la comunidad académica, siendo esta docentes, estudiantes y
padres de familia.
27
V. Alternativas para el problema de la
formación matemática en la Escuela
No existe un consenso acerca de las causas específicas
que originan las dificultades en los procesos de enseñanza
y aprendizaje de las matemáticas tanto en maestros como
en los estudiantes, sin embargo sí es posible encontrar
tendencias, tal como lo ilustra [21], que consultando a varios
expertos en educación, proporciona algunos elementos que
sirven como punto de reflexión para el debate; entre estos
están por ejemplo una equivocada práctica docente por
factores emocionales, basados en modelos pedagógicos
inapropiados, pero también son dificultades cognitivas
propias de los estudiantes, concebidas por obstáculos no
superados en procesos escolares anteriores o por errores que
tienen su origen en la ausencia de significados que los expone
con mayor profundidad [22], igualmente, el problema radica
en que los contenidos y las competencias que se quieren
desarrollar se vuelven independientes, sin el concurso
transversal de otros saberes, los estudiantes adicionalmente
complican la situación al tener bajos niveles de lectura y
desde luego, comprensión de lectura, que aunado a la cultura
del facilismo y posibles errores en los procedimientos para la
promoción escolar y la ausencia de acompañamiento en casa,
necesariamente llevan al el fracaso escolar. Esta situación
igualmente se ve reflejada en la educación superior, tal como
lo expone [23] donde bajos índices de competencias básicas
matemáticas y competencias básicas lectoras impactan muy
significativamente los índices de aprobación y reprobación
de asignaturas en ciencias básicas lo cual influye de forma
determinante en la deserción de los estudiantes universitarios
tal como lo expone [24].
Dada la necesidad, no sólo en Colombia, sino también
en todo el mundo, de mejorar y modernizar los sistemas,
se han propuesto, entre otros, nuevos modelos pedagógicos
como [25], estrategias didácticas como [26], estrategias
metodológicas como la que se expone en [27] pero se
enmarcan, tal como lo expone [28] y [29] en las tecnologías
de la información y la comunicación; experiencias tales
como [30], [31] y [32], sugieren que el uso de estos recursos
capta el interés de los estudiantes, contextualiza en su propio
lenguaje y facilita el aprendizaje, al tener en cuenta los
ritmos propios de cada individuo, por otro lado, media la
universalización del conocimiento con la creación de redes
académicas donde cada participante cumple un rol en la
generación de nuevos saberes para él mismo y su comunidad
según lo propuesto en publicaciones como [33] y [34]. Por lo
tanto, al ubicar al estudiante en situaciones reales donde deba
usar sus saberes para encontrar respuesta a una problemática
salida de los contextos académicos pero aterrizados en la
cotidianidad, según [35], se facilita el aprendizaje ya que
interactúa con estructuras mentales previas permitiendo lo
que Ausubel denomina asimilación cognitiva.
Sin duda, estos cambios en los paradigmas sobre
educación, han llevado a replantear igualmente los métodos de
enseñanza y en el escenario mundial destacan dos propuestas
generales que han hecho carrera en las comunidades
educativas en casi todos los niveles de formación, estos dos
métodos son el e–learning y el b-learning.
Como seguimiento a esta actividad, cabe precisar que el
e-learning es una metodología de enseñanza y aprendizaje
que usa el internet como canal para administrar y gestionar
la información a través de enlaces hipertextuales dentro
de redes académicas de conocimiento tal como lo expone
[36] y [37]; pero dos de los inconvenientes más relevantes
de esta propuesta y que la han llevado a su replanteamiento
en [38] y [39], son la desnaturalización de las relaciones
docente-estudiante, puesto que todo se hace de forma virtual
a través de la Internet y la necesidad que el estudiante
requiera, de antemano, un nivel de maduración cognitiva
y de compromiso con su formación, pues gran parte –sino
la totalidad– de la responsabilidad del cumplimiento de
las tareas asignadas recae sobre él, ya que es inexistente la
presión social de grupo o presión docente por cumplir con
los deberes asignados.
En respuesta a estos dos inconvenientes, entre otros que
presenta el e–learning, aparece el b-learning o aprendizaje
de base tecnológica semipresencial, explicado con más
detalle en [40] y [41], el cual combina sistémicamente, tanto
la virtualidad, la presencialidad y los recursos tecnológicos
disponibles. De la educación virtual retoma el uso de los
recursos hipertextuales e hipermediales y de la educación
presencial la personificación y naturalización del proceso
enseñanza– aprendizaje, trabajando con los centros de
atención y motivación de los estudiantes.
Estas estrategias metodológicas tienen diversos
elementos en común, siendo uno de los más significativos
la facilidad para crear las mismas redes académicas de
conocimiento conformadas por pares disciplinares y
tutores que se mencionan en este documento; de hecho
[42] explica su fortaleza en el sentido que empodera a cada
participante, tanto de su propio proceso formativo, como de
los procesos formativos de los demás participantes dentro
de su comunidad, adicionalmente muestra el conocimiento
como un proceso dinámico y de continua construcción que
desde el enfoque epistemológico crea y recrea la ciencia.
Estas mediaciones vienen siendo empleadas y utilizadas con
excelentes resultados, según se puede concluir con base en
la bibliografía anteriormente citada, lo que se convierte, para
la presente investigación, en un punto de referencia y camino
recorrido para reorientar nuevas búsquedas.
VI. La Propuesta de investigación
Planteado el problema de la enseñanza y aprendizaje de
las matemáticas en la escuela, su evolución y estado actual,
y con los nuevos enfoques pedagógicos, metodológicos y
didácticos, y partiendo de los logros alcanzados cuando se
usan las Tecnologías de la Información y la Comunicación
[43] se pretende indagar sobre las mejores formas, a través
de las cuales, se pueden articular los sistemas hipermediales
Universidad Católica de Pereira
28
y especialmente la robótica, aprovechando como referencia
los avances hechos en [44] y [45] al currículo de la escuela
colombiana, a fin de poder lograr la transformación del
pensamiento lógico natural hacia el pensamiento lógico
formal necesario para construir en los niños, niñas y jóvenes,
un pensamiento matemático correctamente estructurado. La
propuesta de investigación está sustentada en tres elementos
importantes mutuamente relacionados: un componente
tecnológico, un componente disciplinar y un componente
metodológico, tal como se ilustra en la Fig. 4.
Fig. 4. Representación de la propuesta curricular en la investigación.
No es posible jerarquizar estos componentes dentro de
una propuesta integrada, como se plantea en la presente
investigación, cada uno cumple una función específica
aunque relacionada sustantivamente con las otras dos
y soporta a su vez toda la propuesta en sí misma pero
referenciándose a las otras dos.
Por su parte, el componente disciplinar de la propuesta
de investigación hace una reflexión sobre las competencias –
en el contexto de las matemáticas– que se quieren desarrollar
en los estudiantes; estas competencias son leídas desde
los requerimientos de orden nacional –los lineamientos
curriculares para matemáticas– y adicionalmente asumen los
contenidos sobre los cuales se construye este pensamiento.
El componente tecnológico por su parte abarca el estudio
de la infraestructura en hardware y software requerida
para el desarrollo de la propuesta, apuntando a una
transposición didáctica efectiva, tal como se expone en [46]
y [47], a la adquisición de saberes dentro del contexto del
constructivismo Vygotskiano, explicado en [48], [49] [50] y
[51] y el aprendizaje significativo de [52] y [53].
Finalmente el componente metodológico indaga sobre
las formas eficientes, en las cuales se debe articular el
componente disciplinar con el componente tecnológico,
para que el estudiante transforme ese conocimiento en
saber y comprenda que ese es el fin último del procesos
educativo tal como lo propone [54]; esto desde luego
demanda una comprensión del contexto y de las necesidades
de los participantes, pero también de sus potencialidades y
capacidades.
Entre Ciencia e Ingeniería
VII. Conclusiones
En síntesis, el problema de la enseñanza y aprendizaje
de una ciencia en los diferentes niveles de la educación de
un país como Colombia, es de naturaleza epistemológico,
tanto en su componente disciplinar como en su componente
pedagógico; la comprensión histórica de la evolución de
los sistemas educativos al cual pertenecieron los maestros
y en los cuales fueron formados tanto a nivel de pregrado
como posgrado, dan una aproximación a las posibles
causas por las cuales los nuevos modelos no han permeado
intensamente la educación, a pesar de tener amplias y
también profundas investigaciones en estos campos, en este
sentido es importante reconocer los ingentes esfuerzos de las
comunidades académicas nacionales e internacionales por
replantear el paradigma de la educación.
Por otra parte, los indicadores de evaluación tanto
nacional como internacional, muestran bajos niveles de
desempeño de los estudiantes de educación básica primaria,
básica secundaria y media en áreas como matemática,
ciencias, lenguaje entre otras, originados por diversas causas
y aunque es importante comprenderlas para así plantear
soluciones realistas, el objeto central de discusión de las
comunidades académicas y del Estado, debe ser cómo
mejorar y cómo se deben aplicar políticas unificadas que
beneficien a toda la población de chicos y chicas en edad
escolar.
En esta dirección, si existe algo cambiante en la
sociedad es su educación, la cual obligatoriamente debe
responder a las necesidades de una nación; esta educación
debe reflejar el contexto socio–cultural y económico de sus
individuos, pero también demanda una lectura de los nuevos
recursos tecnológicos y la forma en la cual estos deben
integrarse a la comunidad desde una perspectiva ética en las
relaciones humanas y su posición frente al conocimiento, la
sostenibilidad en el tiempo, la sustentabilidad con el medio
ambiente. Este ejercicio lejos está de ser fácil, precisa del
concurso de diversos estamentos.
Agradecimientos
Los autores reconocen las contribuciones de J.A.
Barrera, J.L. Arias, en la construcción, revisión y corrección
del presente artículo, igualmente a la Dirección de
Investigaciones e Innovación de la UCP y a la Universidad
Católica de Pereira con su Facultad de Ciencias Básicas e
Ingeniería.
Referencias
[1] L. H. Jaime, “La evaluación en la educación superior”. Principia
Iuris, vol. 11, No. 11, 2014.
[2] M. Delgado-Barrera, “La educación básica y media en Colombia:
Retos en equidad y calidad. Informe final”. Bogotá: Fedesarrollo,
2014.
[3] S. González, “Colombia, el último lugar en los nuevos resultados en
las pruebas PISA”. El Tiempo, Bogotá 09 de Abril 2014.
29
[4]
M. Molano, “Carlos Eduardo Vasco Uribe. Trayectoria biográfica de
un intelectual colombiano: una mirada a las reformas curriculares en
el país”. Revista Colombiana de Educación, vol. 6, 2011, pág 161–
198.
[5] G. Santi & A. Baccaglini-Frank, “Forms of generalization in students
experiencing mathematical learning difficulties”, PDA, vol. 9, no 3,
2015
[6] K. Fernández, I. Gutiérrez, M. Gómez, L. Jaramillo, & M. Orozco,
“El pensamiento matemático informal de niños en edad preescolar
Creencias y prácticas de docentes de Barranquilla (Colombia)”. Zona
próxima, no 5. 2011.
[7] Ministerio de Educación Nacional. (01 de Mayo de 2008).
“Plan nacional colombiano de tecnologías de la información, la
comunicación y la educación”. Recuperado el 12 de Marzo de 2013, de
Eduteka: http://www.eduteka.org/pdfdir/ColombiaPlanNacionalTIC.
pdf
[8] Ministerio de Educación Nacional. (2006). “Plan nacional decenal
de educación 2006-2016”. Recuperado el 01 de octubre de 2013, de
Plan Decenal de Educación:
http://www.plandecenal.edu.co/html/1726/articles-166057_
investigacion.pdf
[9] Ministerio de Educación Nacional, “Lineamientos curriculares en
matemáticas”. Bogotá: Colombia, 1998
[10] J. A. Vera-Noriega, L.E. Torres-Moran & E. E. Martínez- García,
“Evaluación de competencias básicas en tic en docentes de educación
superior en México”. Pixel-Bit: Revista de medios y educación, vol
44, 2014, pp. 143-155.
[11] V. R. Jacobs, L. L. Lamb, & R.A. Philipp, “Professional noticing
of children’s mathematical thinking”. Journal for Research in
Mathematics Education, vol. 41, No. 2, 2010, pp. 169-202.
[12] J. J. Henao-García & O.E. Tamayo-Alzate, “Enseñanza y Aprendizaje
del concepto naturaleza de la materia mediante la resolución de
problemas”. Unipluriversidad, vol 14, no 3, pp. 25-45.
[13] K. Brown, “Employing Mathematical Modelling to Respond to
Indigenous Students’ Needs for Contextualised Mathematics
Experiences”. In Proceedings of the 31st Annual Conference of the
Mathematics Education Research Group of Australasia. Navigating
Currents. vol 1, pp. 93-98. Brisbane, 2008. Australia: Mathematics
Education Research Group of Australasia Inc.
[14] E.C. Nusbaum & P.J Silvia, “Are intelligence and creativity really so
different?: Fluid intelligence, executive processes, and strategy use in
divergent thinking”. Intelligence, vol 39, no 1, 2011, pp.36-45.
[15] F. Paas & S. Kalyuga, “Cognitive measurements to design effective
learning environments.” In C. P. Constantinou, D. Demetriou, A.
Evagorou, M. Evagorou, A. Kofteros, M. Michael, et al. (Ed.), 11
th Biennial conference of the european association for research
on learning and instruction (EARLI), 2004, Nicosia, Chipre:
Universidad de Chipre. pp. 12
[16] H. Leary, A. Walker, B. Shelton & H. Fitt, “Exploring the Relationships
between Tutor Background, Tutor Training, and Student Learning: A
Problem-based Learning Meta-Analysis”. Interdisciplinary Journal
of Problem-based Learning, 2013, pp. 40-66.
[17] J. Orjuela, “Determinantes individuales de desempeño en las Pruebas
de Estado para la educación media en Colombia. In ICFES, Estudios
sobre la calidad de la educación en Colombia” Bogotá: Ministerio de
Educación Nacional, 2012, pp. 164-176
[18] ICFES. (2013). Colombia en PISA 2012. Informe Nacional de
Resultados. Resumen ejecutivo. Bogotá: ICFES.
[19] L. F. Gamboa, “Análisis de la igualdad de oportunidades en educación
media, en una perspectiva internacional. El Caso de Colombia”. En
ICFES, Estudios sobre la calidad de la educación en Colombia,.
Bogotá: Ministerio de Educación Nacional, 2012, pp. 1-42.
[20] M. T. Celis, O. A. Jimenes, & J. F. Jaramillo, “¿Cuál es la brecha de
calidad educativa en Colombia en la educación media y superior”,
en ICFES, Estudios sobre la calidad de la educación en Colombia,
Bogotá: Ministerio de Educación Nacional. 2012 pp. 67-89
[21] A. Linares, “¿Por qué somos tan malos en matemáticas?” El Tiempo,
28 de septiembre de 2013.
[22] M. M. Socas, “Dificultades y errores en el aprendizaje de las
matemáticas. Análisis desde el enfoque lógico semiótico”.
Investigación en educación matemática XI, 2007, pp. 19-52.
[23] F. Barrera, D. Maldonado & C. Rodríguez, “Calidad de la educación
[24]
[25]
[26]
[27]
[28]
[29]
[30]
[31]
[32]
[33]
[34]
[35]
[36]
[37]
[38]
[39]
[40]
[41]
[42] [43]
[44] [45]
básica y media en Colombia: Diagnóstico y propuestas”. Bogotá:
Universidad del Rosario. 2012
G. J. Paramo & C.A. Maya, “Deserción estudiantil universitaria.
Conceptualización”. Revista Universidad EAFIT, vol 35 no 114,
2012, pp. 65-78.
Harvard University. Project Zero. Retrieved Abril 08, 2014, from
Graduate School of Education: http://www.pz.harvard.edu/. 2014.
F. Ligozat, “The determinants of the joint action in didactics: The
text-action relationship in teaching practice”. In B. Hudson, & M.
Meyer, Beyong Fragmentation: Didactics, Learning and Teaching in
Europe, Ginebra: Opladen & Farmington Hill, 2011, pp. 157-176
Sociedad y Tecnología Cul, “Plataformas educativas de software
libre”. Retrieved junio 01, 2014, from TICs en la educación:
http://sociedadytecnologiacul2.wordpress
.com/tics-educacion/
plataformas-educativas/plataforma s-educativas-de-software-libre/,
01 de enerto de 2008
J. S. Ibañes, “Innovación docente y uso de las TIC en la enseñanza
universitaria. RUSC”. Universities and Knowledge Society Journal,
vol 1, no. 1, 2004, pp. 1-16
C. Rosales, “Contextos de la innovación educativa”. Innovación
Educativa, vol. 1, no 22, 2012, pp. 9-12.
J. C Henao-López, & J. A. Barrera-Moncada, “PHYSILAB. Estrategia
Metodológica para la Enseñanza de la Física”. Reunión Nacional de
ACOFI Acciones y cambios en las facultades de ingeniería, pp. 7785, Santa Marta. 2011
J. C Henao-López, & J. A. Barrera-Moncada, PHYSILAB. Conceptos
y ejercicios. Pereira, Colombia: Colección Maestros. Universidad
Católica de Pereira.
N. Coparri, “Relación entre las nuevas tecnologías y la preferencia en
la comunicación en estudiantes”. Eureka, vol 8, no 2, 2011, pp. 231240.
M. B. Yeary, Y. Tian-You, R. D. Palmer, H. Monroy, “Working
together for better student learning: a multi-university, multi-federal
partner program for asynchronous learning module development
for radar-based remote sensing systems”. IEEE Transactions on
Education, 2010, pp. 505-515.
M.S. Ibarra, G. Rodríguez, “El trabajo colaborativo en las aulas
universitaria. Reflexiones desde la autoevaluación.”, Revista de
Educación, 2007, pp. 355-375,
J.J Jiménez, G. Lagos & F. Jareño, “El aprendizaje basado en
problemas como instrumento potenciador de las competencias
transversales”. E-pública. Revista electrónica sobre la enseñanza de
la economía pública, vol 13, 2013, pp. 44-58.
J. Cabrero, “Bases pedagógicas del e–learning”. Revista de
universidad y sociedad del conocimiento, vol 3, no 1, 2006
J. L. Moore, C. Dickson-Deane & K. Galyen, “e-Learning, online
learning, and distance learning environments: Are they the same?”.
The Internet and Higher Education, vol 14, no 2, 2013, pp. 129-135.
M. Rosenberg, E-learning: Estrategias para transmitir conocimiento
en la era digital. Bogotá: McGraw-Hill Interamericana. 2002
M. Paechter, B. Maier & D. Macher, “Students’ expectations of and
experiences in e-learning: Their relation to learning achievements
and course satisfaction”. Computers & Education, vol 54, no. 1,
2010, pp. 222-229.
I. de la Torre, F. J. Diaz, M. Anton, M. Martinez, D. Boto, D. Gonzalez,
D., et al., “Blended learning (b-learning) in telecommunications
engineering - A study case”. (IEEE, Ed.) Promotion and Innovation
with New Technologies in Engineering Education (FINTDI), May 6
de 2011, pp. 1–4.
E. Bañados, “A blended-learning pedagogical model for teaching and
learning EFL successfully through an online interactive multimedia
environment”.Calico Journal, vol 23, no 3, 2013, pp. 533-550.
M. Guitert, & M. Pérez, “La colaboración en la red. Hacia una
definición de aprendizaje colaborativo en entornos virtuales.”, Teoría
de la educación. Educación y cultura en la sociedad de la información,
vol. 14, no 1, 2013, pp. 10-31.
J. Salinas, “Innovación docente y uso de las TIC en la. Revista
Universidad y sociedad del conocimiento”, vol 1 no 1, 2004, pp.
1-11.
E. González-Guerrero, J.J Páez-Rodríguez & F. J. Roldan, “Robots
cooperativos, Quemes para la educación”. Vínculos, vol 10, no 2,
2013, pp. 47-62.
S. A. Zabala-Vargas, J.A. Pérez-López, & H. F. Rodríguez-Hernández,
Universidad Católica de Pereira
30
[46] [47]
[48]
[49]
[50]
[51]
[52]
[53]
[54]
“Estrategia para el desarrollo de aprendizajes en ingeniería basado en
robótica educativa y competitiva: caso Universitaria de Investigación
y Desarrollo, udi”. Ingeniería Solidaria, vol 6, no 16, 2013, pp. 153159,
C. Bergsten, E. Jablonka & A. Klisinska, “A remark on didactic
transposition theory”. In Mathematics and mathematics education:
Cultural and social dimensions: Proceedings of MADIF7, The
Seventh Mathematics Education Research Seminar, pp. 1-11,
Estocolmo: Linköping: Svensk förening för matematikdidaktisk
forskning (SMDF), 2013, pp. 25-26.
M. Artigue, “Ingeniería didáctica”. En M. Artigue, D. Regine, L.
Moreno, & P. Gómez (Ed.), Ingeniería didáctica en la educación
matemática, Bogotá: Grupo Editorial Iberoamericana, 1995, pp. 3360
L. S. Vygotsky, Pensamiento y Lenguaje. Madrid: Paidós Ibérica,
2010.
M. Carretero, “¿Qué es el constructivismo?” en Constructivismo y
Educación, México: Progreso, 2005. pp. 24-25
C. Coll, “Constructivismo y educación escolar: ni hablamos siempre
de lo mismo ni lo hacemos siempre desde la misma perspectiva
epistemológica”. Anuario de Psicología, vol 69, no 1, 1996, pp. 153178,
C. Coll, “Constructivismo y educación: La concepción constructivista
del aprendizaje”. In C. Coll, J. Palacios, & A. Marchesi, Desarrollo
psicológico en educación 2. Psicología de la educación escolar, pp.
157-186, Madrid: Alianza Editorial. 2001
D. P. Ausubel. The psychology of meaningful verbal learning. New
York: Grune & Stration, 1963
D. P. Ausubel, J. D. Novak & H Hanesian. Psicología educativa. Un
punto de vista cognoscitivo. Mexico: Trillas. 1983
D. Perkins, “Qué es la comprensión”. En M. Stone (Ed.), Enseñanza
para comprensión. Vinculación entre la práctica y la investigación,
Buenos Aires: Paidós, 1993 pp. 4-27.
Euclides Murcia Londoño Nació en
Santa fe de Bogotá (D.C), Colombia el 1 de
Noviembre de 1975 y estudió su pregrado
de Licenciatura en Matemáticas y en la
Universidad Tecnológica de Pereira, Ha
Ejercido Profesionalmente como docente para
la Secretaria de Educación de Pereira, y para
la Universidad Católica de Pereira, encuentra
vinculado laboralmente y pertenece al grupo
de investigación GEMA. Entre sus camposde
interés está la didáctica, la estadística, las TIC y
la metodología de Investigación Computación
en la Universidad del Quindio, y una maestría.
Juan Carlos Henao López Nació en Pereira,
Colombia el 14 de enero de 1977 y estudió
su pregrado en ingeniería en la Universidad
Tecnológica de Pereira y una maestría en
educación con la Universidad de Santander.
Ejerció profesionalmente como docente
para la Secretaria de Educación de Pereira,
la Universidad de Caldas y la Universidad
Católica de Pereira donde actualmente se
encuentra vinculado laboralmente y pertenece al grupo de investigación
GEMA. Entre sus campos de interés está la didáctica, la robótica, las TIC.
Entre Ciencia e Ingeniería
31
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 31 - 38
Estudio de la viabilidad del Lactobacillus casei en
jugo de naranja (Citrus sinensis) adicionado con
vitamina C, Calcio y oligofructosa1
Feasibility study of Lactobacillus casei in orange
juice (Citrus sinensis) supplemented with vitamin
C, calcium and oligofructose
M. C. Londoño, J. C. Lucas y V. D. Quintero
Recibido Marzo 27 de 2015 – Aceptado Septiembre 23 de 2015
Resumen — Se utilizó la Naranja Valencia para producir un
jugo enriquecido con bacterias probióticas (Lactobacilos casei).
Se evaluó la concentración óptima de estabilizante realizando
un berrido con tres tipos de gomas (Xantan, CMC, y pectina),
evaluado mediante un arreglo factorial 33. Posteriormente se
adicionó el microorganismo a tres concentraciones diferentes
(0,4 -0,5 y 0,6 Mc – Farland) y los compuestos fisiológicamente
activos (Calcio y vitamina C) en un 20% del valor diario
recomendado según la resolución 333 de 2011 del ministerio de
protección social. Los resultados mostraron que se debe adicionar
Pectina 0.02 %, CMC 0.015 % y Xantan 0.014 %. El análisis
de la concentración de microorganismos durante el tiempo de
almacenamiento muestra que la concentración inicial aumentó
hasta llegar a 7.21* 109 UFC, y el pH permaneció constante desde
el día 15 hasta el 20 en 3.8.
Palabras clave— naranja, jugo, bacterias probióticas.
Abstract— Valencia Orange was used to produce a
juice enriched with probiotic bacteria (Lactobacillus casei).
The optimal concentration of stabilizer was evaluated by
1
Producto derivado del proyecto de investigación “Estudio de la
viabilidad de Lactobacilus casei en jugo de naranja, fortificados con calcio,
vitamina C y adicionado con oligofructosa.”. Presentado por el Grupo de
Investigación Agroindustria de frutas tropicales, avalado por la Facultad de
ciencias básicas y facultad de ciencias agroindustriales de la Universidad
del Quindío.
J. C. Lucas y V. D. Quintero, son docentes del Programa de Ingeniería
de Alimentos, Facultad de Ciencias Agroindustriales de la universidad del
Quindío, Armenia, Quindío (Colombia); email: [email protected]
y [email protected]
M. C. Londoño, es docente del Programa de Química, Facultad
de ciencias básicas de la universidad del Quindío, Armenia, Quindío
(Colombia); email: [email protected]
performing a screening with three types of gums (xanthan,
CMC, and pectin), evaluated using a factorial arrangement
33. Subsequently the microorganism at three different
concentrations (0.4 -0.5 and 0.6 was added 6 Mc - Farland) and
physiologically active compounds (calcium and vitamin C) 20%
of the recommended daily value according to the resolution 333
of 2011 the ministry of social protection. The results showed
that 0.02% pectin, CMC and Xanthan 0.015% 0.014% should
be added. The analysis of the concentration of microorganisms
during storage time shows that the initial concentration
increased up to 7.21 * 109 CFU, and the pH remained constant
from day 15 to 20 in 3.8.
Key words—juice, orange, probiotic bacterias.
L
I. Introducción
os alimentos funcionales se definen como aquellos que
además de suministrar nutrientes, ofrecen beneficios
potenciales para la salud que puede mejorar el bienestar de
los individuos. Ellos afectan una o más funciones diana del
organismo, más allá de su efectos nutricionales, ya sea para
mejorar la salud y/o reducir el riesgo de la enfermedad [1],
y deben, por varias definiciones, ser consumidos como parte
de un patrón normal de alimentos y no como una píldora,
una cápsula, o alguna forma de suplemento dietético. [2]
Los probióticos proporcionan una serie de beneficios
para la salud, principalmente a través del mantenimiento de la
microbiota intestinal normal, la protección contra patógenos
gastrointestinales, mejora del sistema inmune, reducción del
nivel de colesterol sérico y la presión sanguínea, la actividad
Universidad Católica de Pereira
32
anti-cancerígena, la mejora de nutrientes y la mejora el valor
nutritivo de los alimentos. Las aplicaciones terapéuticas
de los probióticos incluyen la prevención de la diarrea
infantil, enfermedades urogenitales, osteoporosis, alergia a
los alimentos y enfermedades atópicas; la reducción de la
diarrea provocada por anticuerpos; alivio de la constipación
y la hipercolesterolemia; control de las enfermedades
inflamatorias del intestino; y la protección contra el cáncer
de colon y la vejiga. [3], [4] y [5]
ligero cambio de color, pero no un color extraño debido
a la alteración o elaboración defectuosa según el Instituto
Colombiano de Normas Técnicas en su Norma 695.
El éxito significativo se ha logrado durante las últimas
décadas en el desarrollo de productos que contienen bacterias
probióticas, tales como leches fermentadas, helados, varios
tipos de queso, comida para bebés, leche en polvo, postres
lácteos congelados, bebidas a base de suero, crema agria,
suero de mantequilla, la leche líquida normal y jugos de fruta
con sabores semejantes a las materias primas originales. [6]
La obtención de jugos de frutas con probióticos cobija a
todos aquellos consumidores que son intolerantes de alguna
forma a los productos lácteos, pudiéndose aprovechar de
alguna manera este tipo de alimentos básicos como alimentos
funcionales [7]. Los jugos de frutas se han considerado
adecuados para la adición de cultivos probióticos porque ya
contienen nutrientes beneficiosos, los cuales aportan perfiles
de sabor agradables para consumidores de todas las edades
[8], [9] y [1], además de hacer parte de la dieta de una gran
proporción de la población colombiana, permitiendo que
este tipo de alimento funcional sea accesible en cualquier
nicho de mercado.
II. Materiales y métodos
La producción de jugos y pulpas naturales funcionales
es limitada debido al bajo conocimiento que se tiene del
comportamiento de las matrices de los constituyentes de
estas bebidas en el momento de procesarlas y conservarlas.
Además la mayoría de los productos del mercado
proporcionan al consumidor los componentes nutricionales
básicos de cada fruto sin aportar otros compuestos que sean
bioactivos en el ser humano [6].
Dentro de la normatividad que rige este tipo de alimentos
existen diversos tipos: la Norma General del Codex para
Zumos (Jugos) y Néctares de Frutas (Codex Stan 247-2005)
y la Resolución del Ministerio de Salud No 7992 del 21
de Julio de 1991, por la cual se reglamentan los diversos
parámetros relacionados con la elaboración, conservación y
comercialización de jugos, concentrados, néctares, pulpas
azucaradas y refrescos de frutas. Otra definición sobre
los productos líquidos de las frutas la propone el Instituto
Colombiano de Normas Técnicas en su Norma 695.
Para la elaboración del jugo de naranja, éste debe tener
una acidez (expresada como ácido cítrico anhidro) de 0.5%
m/m Mínimo, 9°Brix (a 20°C), un porcentaje de agua de 70
a 95%, debe estar libre de materias extrañas, admitiéndose
una separación en fases y la presencia mínima de trozos,
partículas oscuras propias de la fruta utilizada, libre de
sabores extraños. El color y olor semejante al de la fruta
de la cual se ha extraído. El producto puede presentar un
Entre Ciencia e Ingeniería
El objetivo principal de este trabajo fue el de estabilizar
el jugo de naranja obtenido, adicionarle el microorganismo
(L. casei) los compuestos fisiológicamente activos (Calcio,
Vitamina C y oligofructosa) y estudiarlo fisicoquímica y
sensorialmente.
A. Obtención del Jugo
Las naranjas fueron adquiridas en la central de acopio
de alimentos de la ciudad de Armenia, Quindío, Colombia,
en el mismo estado de maduración. Posteriormente fueron
llevadas al Laboratorio de Diseño de Nuevos Productos de la
Universidad del Quindío, localizado en la misma ciudad. Las
frutas se lavaron con hipoclorito de sodio y se escaldaron a
75ºC por 1 minuto. El jugo de naranja se extrajo empleando
un exprimidor de marca Oster 3190 Rotación Bidireccional,
tomando como referencia la NTC 5468, posteriormente se
homogeneizó en ultraturrax a 2500 rpm durante 90 segundos
a temperatura ambiente y finalmente se filtró sobre una malla
con tamaño de poro de 100 µm. [10]
B. Caracterización inicial del jugo
El jugo de naranja obtenido se caracterizó
fisicoquímicamente, determinando el color mediante un
espectofotómetro Minolta. A partir de los espectros de
reflexión de las muestras se determinaron las coordenadas
del CIE-L*a*b*. A partir de los espectros de reflactancia
se cuantificó el parámetro ΔE para determinar el cambio de
color global en los tratamientos [11], los sólidos solubles se
determinaron en un refractómetro de mesa marca THERMO,
la acidez titulable expresada como porcentaje de ácido cítrico
se determinó por titulación con NaOH 0,1 N hasta viraje del
indicador fenolftaleína, el pH se midió con un potenciómetro
de mesa marca Benchtop IQ-240 [12], la viscosidad con un
viscosímetro rotacional marca SELECTA de referencia ST
2010 a temperatura ambiente [13].
C. Estabilización del jugo
El jugo obtenido se estabilizó evaluando tres gomas
(Xantan, pectina y CMC) con tres concentraciones diferentes
(0%, 0.025% y 0.05%) y relaciones de mezcla diferentes.
Se realizó un diseño experimental en arreglo factorial 33
utilizando como factores las gomas Xantan, CMC y pectina
(Figura 1) y la concentración, tomando como variables de
respuesta la viscosidad, el tiempo de separación y la distancia
de separación de fases. La evaluación de los datos se realizó
mediante el modelo de superficies de respuesta [10].
D. Pasteurización y formulación
El jugo se pasteurizó durante 15 segundos a 85°C y luego
se sometió a enfriamiento y posteriormente se introdujo en
bolsas con cierre hermético para ser llevado al congelador
[14].
33
El Calcio se adicionó en un 20% del valor diario
recomendado para adultos que es de 1000 mg (NTC 5839 y
resolución 333/2011 Minsalud) como Lactato de Calcio, ya
que el ion lactato ha sido reportado como el mejor vehículo
trasportador de Calcio en matrices acuosas, como lo son los
jugos de frutas [15], [16], y [17]. La vitamina C se adicionó
como ácido ascórbico anhidro en un 20% del valor diario
recomendado que para el caso es de 90 mg. (NTC 5839 y
resolución 333/2011 Minsalud)
E. Incorporación del microorganismo y determinación
de la concentración de unidades formadoras de colonia
La cepa de L. casei se reactivó por rehidratación en
caldo MRS incubado a una temperatura de 37°C durante 48
horas en condiciones de microaerofilia en una campana de
anaerobiosis. La cepa activada se incorporó en esferas de
cerámica (CRIOBANK) según instrucciones del fabricante
para garantizar su conservación.
La determinación de las unidades formadoras de colonia
se realizó teniendo en cuenta la escala Mc- Farland para ser
comparado por turbidimetría con los tubos que poseen el
caldo con el microorganismo y se determinó la concentración
de unidades formadoras de colonia inoculadas en el jugo [6].
Se toma la cepa de acuerdo con el tubo Mc- Farland
después de haber sometido a centrifugación a 1000 rpm el
microorganismo contenido en el caldo MRS y se inocula en
el jugo de naranja.
En la evaluación del color se observa, en todos los
parámetros una diferencia estadísticamente significativa (p
< 0.05), esto debido a que el jugo comercial ha sido sometido
a tratamientos térmicos de pasteurización, además se la han
adicionado colorantes artificiales que ayudan a estabilizar
el color del producto final. Resultados similares han sido
reportados anteriormente [18], al comparar cambios de color
en jugos sin procesar con jugos tratados con pulsos eléctricos
de alta intensidad y pasteurizados térmicamente. En estudios
anteriores [19] se determinó un cambio en el parámetro L por
tratamientos a altas presiones obteniendo valores de 14.48 ±
0.58 y 14.73 ± 0.11 para jugos sin procesar. En un estudio
realizado en el 2003 [20] también se reportaron valores de
L de 40.22 a 41.22 paras jugo de naranja pasteurizado. En
el 2007 [21] se reportaron valores de L 62.2; a 5.19 y b 56.9
para jugos de naranja tratados con ultrasonido.
La viscosidad, la acidez y los sólidos solubles concuerdan
con los datos reportados por [22] medidos en jugos de naranja
tratados a altas presiones, [13] para jugos sin procesar y [23]
medidos en jugos de naranja concentrado reconstituido.
B. Estabilización del jugo
En la figura 1, se observa cómo varían los jugos #1 al #27,
desde el día 0 hasta el día 12.
F. Caracterización fisicoquímica del producto final
Los productos obtenidos se evaluaron durante 20 días
para determinar la evolución de la viscosidad, pH y UFC/
mL [10].
Todos los datos fueron analizados en software sthtgraphics
XVI centurión.
III. Resultados y discusión
A. Caracterización inicial del jugo
a) Jugos a tiempo cero de almacenamiento.
Tabla i. Datos de la caracterización fisicoquímica del jugo
recién exprimido.
b) Jugos a 15 días de almacenamiento.
*Valor Diario Recomendado para un adulto promedio según resolución
333/2011 Ministerio de Protección Social.
Fig. 1. Los jugos de las figuras a) son formulaciones de jugos en
tiempo cero, con respecto a las figuras b) son formulaciones de
jugos después de 12 días almacenados en el refrigerador a 10 °C.
Universidad Católica de Pereira
34
1) Evaluación de viscosidad
En la iteración realizada sobre la ecuación polinómica
generada en la evaluación de la viscosidad con los 3 tipos de
goma, se concluyó que para obtener una viscosidad cercana a
la del jugo comercial se necesita adicionar 0.02 % de pectina,
0.015 % de carboximetilcelulosa (CMC) y 0.014 % de goma
xantan. El resultado de viscosidad simulado sería de 5.17 cP.
Este resultado es similar al reportado por [20], [23], [24] y
[25]. En una investigación anterior [20] se demostró en su
trabajo que la combinación de gomas tiene mejor efecto en
cuanto a la estabilización de bebidas, evaluaron la mezcla
de goma xantan, carboximetilcelulosa y dextrina en jugo de
naranja, obteniendo viscosidades de hasta 0.2 Pa*s.
3) Evaluación de distancia de separación de fases
La adición de las gomas, como en este caso, la goma
xantan, pectina y carboximetilcelulosa (CMC), permite la
interacción fisicoquímica entre la fase continua, la cual se
conforma de agua, azúcares y ácidos orgánicos con la fase
dispersa, disminuyendo la distancia entre éstas y a su vez el
aumento de la viscosidad, con lo cual ayuda a aumentar el
tiempo de vida útil del producto y la aceptabilidad sensorial
por parte del consumidor, ya que el jugo cambia la forma de
fluir y por tanto el consumidor no lo va a asociar solamente
con agua, sino con un jugo rico en sólidos y demás
componentes propios de la naranja [29], [24], [27], y [20].
También [26] obtuvieron resultados similares al evaluar
en su trabajo goma xantan al 0.2% sobre jugo de naranja,
obteniendo viscosidades máximas de hasta 0.46 Pa*s
Fig. 4. Superficie de respuesta estimada para distancia de separación
de fases.
Fig. 2. Superficie de respuesta estimada para viscosidad.
2) Evaluación de color
En la evaluación de color se tuvo en cuenta el cambio
de color global del jugo calculado mediante el ΔE, tomando
como parámetros de referencia el color del jugo comercial.
Por tanto, la iteración se realizó con el fin de obtener un
cercano a cero.
Los resultados de la iteración mostraron que el mínimo ΔE
(1.67) que se puede obtener con los porcentajes de las gomas
permitidos por la norma son de 0.05% de pectina; 0.05%
de carboximetilcelulosa y 0% de xantan. Otros autores han
evaluado los cambios de color durante el procesamiento por
estabilización con emulsificantes, tratamientos térmicos, por
ultrasonido o a altas presiones de jugo de naranja obtenido
por extracción directa del fruto [25], [27], [11], [28].
Fig. 3. Superficie de respuesta estimada para el cambio de color.
Entre Ciencia e Ingeniería
La iteración en el polinomio obtenido para lograr la
mínima distancia de separación de fases teniendo en
cuenta la reglamentación nacional en cuanto a la adición de
estabilizantes a jugos de fruta, da como resultado la adición
de 0.05% de cada una de las gomas utilizadas en este trabajo
(Goma Xantan, Carboximetilcelulosa y Pectina).
Estas 3 formulaciones seleccionadas mediante iteración en
las 3 ecuaciones obtenidas fueron evaluadas posteriormente
con la adición del microorganismo y durante 12 días.
Las formulaciones se resumen en la tabla 2.
Tabla II. Formulaciones seleccionadas para adición del
microorganismo
Formulación
Xantan
1
2
3
0.014
0
0.05
Estabilizante (%)
Pectina
0.02
0.05
0.05
CMC
0.015
0.05
0.05
C. Análisis microbiológico inicial para el jugo de
naranja estabilizado
El análisis de la carga microbiana del jugo reportó una baja
cantidad de microorganismos mesófilos que en promedio es
de 800 UFC/ml ± 18,475 y coliformes totales 3 NMP. Estos
valores según el decreto 7992 de 1991 están dentro de los
parámetros exigidos para un alimento de buena calidad, esto
quiere decir que la técnica empleada en la pasteurización fue
eficaz y cumplió con el objetivo previsto.
35
Tabla III. Análisis microbiológico del jugo de naranja
estabilizado con gomas.
Formulación
1
2
3
Análisis (Dilución 10-1)
Mesófilos aerobios (UFC/mL)
Coliformes totales (NMP/g)
800
3
700
4
900
3
método de las mínimas diferencias significativas (LSD) al 95
% de confiabilidad. Encontrando un valor promedio de pH
para las 3 formulaciones de 4.0 ± 0.2, de viscosidad de 5.2
± 0.3 cP, sólidos solubles 9.0 ± 0.3 % y porcentaje de ácido
cítrico de 0.494 ± 0.016 %. Estos datos concuerdan con
investigaciones anteriores realizadas por [36], [37] y [38].
D. Formulación final.
Las 3 formulaciones iniciales se ajustaron con el fin de
seguir los parámetros normativos, adicionar los compuestos
fisiológicamente activos en un 20% del valor diario
recomendado y mejorar las características sensoriales del
jugo. En la siguiente tabla se presentan los ajustes a las
formulaciones.
Tabla IV. Formulación final del jugo de naranja
Componente (%)
Formulación
1
2
3
Extracto de naranja (pulpa)
99,246
99,195
99,145
Goma Xantan (Estabilizante)
Pectina (Estabilizante)
0,014
0,020
0
0,050
0,050
0,050
Carboximetilcelulosa (Estabilizante)
0,015
0,050
0,050
Citrato de sodio (Regulador de acidez)
0,100
0,100
0,100
Sucralosa (Edulcorante no calórico)
Lactato de Calcio
Ácido ascórbico (Vitamina C)
0,030
0,310
0,005
0,030
0,310
0,005
0,030
0,310
0,005
Oligofructosa
0,260
0,260
0,260
Total
100 %
100 %
100 %
El citrato de sodio se adiciona como regulador de
acidez con el fin de aumentar el pH hasta 4. Con esto se
disminuye la acidez titulable del jugo desde 0.98% hasta
0.5% en ácido cítrico, el cual es el límite permitido por la
norma (CODEX STAN 247-2005) y con esto se mantiene
un ambiente adecuado para el crecimiento del L. casei, a su
vez se mejora las características sensoriales del producto. Se
seleccionó la sucralosa como edulcorante no calórico debido
a que endulza 600 veces más que la sacarosa, sólo el 2 %
de la cantidad ingerida es absorbida al torrente sanguíneo
y según reportes anteriores [30], [31], [32], [33] y [34] las
características sensoriales de los jugos de frutas endulzados
con sucralosa no cambian significativamente con respecto a
aquellos que fueron endulzados con sacarosa.
E. Adición y recuento del microorganismo probiótico
(Lactobacilos casei)
Las colonias aisladas en un medio MRS, fueron redondas,
blancas, cremosas y pequeñas, este es el crecimiento
característico para este lactobacilo en ese medio de acuerdo
con [35]. En la figura 5 se observan las cajas con la siembra
de cada formulación de los jugos.
Fig. 5. Diluciones de la formulación 1 del jugo de naranja sembradas
en Agar MRS.
En cuanto a los cambios de los parámetros fisicoquímicos
con respecto al tiempo, se observa una disminución de pH
para las 3 formulaciones debido a la producción inicial de
ácido láctico por parte del microorganismo, pero al llegar al
día 15 la producción de ácido se estabiliza y por ende el pH
no sigue disminuyendo hasta el día 20, en el cual culminó
el estudio.
Esta estabilización se da gracias al citrato de sodio agregado
como regulador de acidez y al ion lactato adicionado como
lactato de calcio, los cuales actúan como amortiguadores con
el ácido cítrico propio de la fruta y el ácido láctico producido
por la bacteria, impidiendo los cambios drásticos de pH del
jugo y con esto ayudando a un aumento de la vida útil del
producto. [39], [9], [8] y [30].
F. Caracterización fisicoquímica inicial de las
formulaciones
La caracterización de las formulaciones con todos
los aditivos en el tiempo cero no mostró diferencias
estadísticamente significativas entre ellas, evaluadas por el
Universidad Católica de Pereira
36
Fig. 6. Comportamiento del pH con respecto al tiempo de
almacenamiento a 10 °C
Fig. 7. Comportamiento de la viscosidad con respecto al tiempo de
almacenamiento a 10 °C
Fig. 5. Caracterización de las formulaciones finales en el
tiempo cero.
En cuanto a la viscosidad no se observan cambios
estadísticamente significativos a un nivel de confiabilidad del
95% en todos los tiempos de evaluación de la formulación
número 1, indicando esto que la relación Pectina 0.02 %,
CMC 0.015 % y Xantan 0.014 % fue la mejor para conservar
homogéneo el jugo durante el tiempo de evaluación. Otros
autores han evaluado mezcla de gomas. [29] Anteriormente
se evaluaron mezclas de gomas xantan, goma guar y
almidón sobre jugos de naranja, piña y manzana y otros
investigadores [20] evaluaron mezclas de goma xantan,
goma guar, carboximetilcelulosa y dextrina sobre jugo
de manzana, naranja, Coca-Cola, una bebida hidratante
y leche entera. Se puede observar también una diferencia
estadísticamente significativa al 95 % de confiabilidad
en la viscosidad de la formulación 1 después del 5 día de
evaluación con respecto a las formulaciones 2 y 3, también
después del 5 día de evaluación. Esto corrobora que la mejor
mezcla de goma para la estabilización del jugo de fruta es la
de la formulación 1.
Entre Ciencia e Ingeniería
En las unidades formadoras de colonia se observa un
aumento estadísticamente significativo en los 10 primeros
días de estudio para las 3 formulaciones. A partir del día 15
hasta el día 20 no se observa un cambio estadísticamente
significativo a un nivel de confianza del 95 % evaluado
por el método de las mínimas diferencias significativas y
a su vez en el test de rango múltiple realizado se observó
una homogeneidad del grupo en los días 15 y 20 del
estudio, mientras que estos 2 grupos (días 15 y 20) no son
homogéneos con respecto a los otros grupos de estudio (días
0, 5, y 10) indicando esto un crecimiento exponencial en los
primeros días del microorganismo en jugo y posteriormente
un período de estabilidad después del día 15, esto se
corrobora también con la producción de ácido láctico, ya que
al día 15 se disminuye la producción de éste estabilizando
este parámetro en 3.8. Las UFC/mL en promedio para las
3 formulaciones fueron de 7.21 * 109, valor que concuerda
con la resolución 333 del 2011 emitida por el Ministerio de
Protección Social, la cual indica que para que un alimento
pueda catalogarse como probiótico debe tener entre 106 y
109 UFC/mL.
Fig. 8. Comportamiento de las UFC/mL con respecto al tiempo de
almacenamiento a 10 °C
37
[5]
[6]
[7]
[8]
Fig. 9. Comportamiento de la viscosidad evaluada con el método de
las mínimas diferencias significativas para la formulación 1
[9]
IV. Conclusiones
[10]
Para estabilizar el jugo de naranja recién exprimido
es necesario adicionar 0.02 % de Pectina, 0.015 % de
carboximetilcelulosa y 0.014 % de Xantan. Con estas gomas
se asegura una mínima separación de fases y una viscosidad
constante de 5,2 cP durante el almacenamiento. La adición
del microorganismo probiótico (Lactobacilus casei) produce
cambios fisicoquímicos en el jugo, especialmente en el pH
durante los primeros 10 días, los cuales son contrarrestados
con el regulador de acidez adicionado (Citrato de sodio)
y con el ion lactato que es adicionado como lactato de
calcio, el cual, además cumple la función de compuesto
fisiológicamente activo. Entre los días 15 y 20 el pH
permanece constante en 3,8. La vitamina C, el Calcio y
la oligofructosa permanecen totalmente solubilizados en
el jugo sin producir alteraciones en la viscosidad o pH. El
microorganismo crece exponencialmente los primeros 10
días de almacenamiento, posteriormente su concentración
permanece constante en 7,21 * 109. Con esto y según la
resolución 333 del 2011 del Ministerio de Protección Social
de la República de Colombia, el jugo de naranja desarrollado
en este trabajo se puede considerar como alimento probiótico.
Referencias
Ferrari, Carlos K.B. 2007. Functional foods and physical activities in
health promotion of aging people, Maturitas, 58(4): 327-339.
[2] Assmann, G. P.; Buono, A.; Daniele, E.; Della Valle, E.; Farinaro,
G.; Ferns, V.; Krogh, D.; Kromhout, L.; Masana, J.; Merino, G.;
Misciagna, S.; Panico, G.; Riccardi, A.A.; Rivellese, F.; Rozza, F.;
Salvatore, V.; Salvatore, S;. Stranges, M.; Trevisan, B. y Trimarco, C.
2014. Functional foods and cardiometabolic diseases: International
Task Force for Prevention of Cardiometabolic Diseases, Nutrition,
Metabolism and Cardiovascular Diseases. 24 (12):1272-1300.
[3] Davari, S.; Talaei, S.A y Alaei, M. 2013. Probiotics treatment
improves diabetes-induced impairment of synaptic activity and
cognitive function: Behavioral and electrophysiological proofs for
microbiome–gut–brain axis, Neuroscience. 240 (14): 287-296.
[4] Machairas Nikolaos, Aikaterini Pistiki, Dionyssia-Irini Droggiti,
Marianna Georgitsi, Nikolaos Pelekanos, Georgia Damoraki,
Grigorios Kouraklis, Evangelos J. Giamarellos-Bourboulis. 2015.
Pre-treatment with probiotics prolongs survival after experimental
infection by multidrug-resistant Pseudomonas aeruginosa in rodents:
An effect on sepsis-induced immunosuppression, International
Journal of Antimicrobial Agents, Available online.
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[1]
[19]
[20]
[21]
[22]
Serban Daniela Elena. 2014. Gastrointestinal cancers: Influence of
gut microbiota, probiotics and prebiotics, Cancer Letters. 345(2):
258-270.
Karimi, R. A.M.; Mortazavian, M.; Karami, M. 2012. Incorporation
of Lactobacillus casei in Iranian ultrafiltered Feta cheese made by
partial replacement of NaCl with KCl, Journal of Dairy Science.
95(8): 4209-4222.
Chaikham
Pittaya,
Arunee
Apichartsrangkoon,
Wachira
Jirarattanarangsri, Tom Van de Wiele. 2012. Influence of encapsulated
probiotics combined with pressurized longan juice on colon
microflora and their metabolic activities on the exposure to simulated
dynamic gastrointestinal tract, Food Research International. 49(1):
133-142.
Awaisheh S.S.; Haddadin, M.S.Y.; Robinson, R.K. 2005.
Incorporation of selected nutraceuticals and probiotic bacteria into a
fermented milk, International Dairy Journal, 15 (11): 1184-1190.
Tripathi M.K. y Giri, S.K. 2014. Probiotic functional foods: Survival
of probiotics during processing and storage, Journal of Functional
Foods. 9: 225-241.
Quintero, V. D.; Giraldo G. y Cortes M. 2012. Evaluación de
viscosidad y color en la pulpa de mango común (Mangifera indica
l) tratada enzimáticamente. Temas agrarios. Facultad de Ciencias.
17 (2): 66 – 76.
Fernández-Vázquez, R.; Stinco, C. M.; Hernanz, D. J. Heredia F. y
Vicario, I. M. 2013. Colour training and colour differences thresholds
in orange juice, Food Quality and Preference. 30(2): 320-327.
Legua, J.B.; Forner, F.; Hernández, M.A. y Forner-Giner, M. 2013.
Physicochemical properties of orange juice from ten rootstocks using
multivariate analysis, Scientia Horticulturae, 160 (27): 268-273.
Magerramov, M.A.; Abdulagatov, A.I.; Azizov, N.D. y Abdulagatov
I.M. 2007. Effect of temperature, concentration, and pressure on the
viscosity of pomegranate and pear juice concentrates, Journal of
Food Engineering. 80(2): 476-489.
Vervoort, L.; Van der Plancken, I.; Grauwet, T.; Rian, A.H.;
Timmermans, H. C.; Mastwijk, A. M.; Matser, M. E.; Hendrickx,
A. 2011. Comparing equivalent thermal, high pressure and pulsed
electric field processes for mild pasteurization of orange juice: Part
II: Impact on specific chemical and biochemical quality parameters,
Innovative Food Science & Emerging Technologies. 12(4): 466-477.
Abd-Elhady M. 2014. Effect of citric acid, calcium lactate and low
temperature prefreezing treatment on the quality of frozen strawberry,
Annals of Agricultural Sciences. 59(1): 69-75.
Moraga M.J.; Moraga, G. Fito, P.J.; Martínez-Navarrete, N. 2009.
Effect of vacuum impregnation with calcium lactate on the osmotic
dehydration kinetics and quality of osmodehydrated grapefruit,
Journal of Food Engineering. 90(3): 372-379.
Gómez-López V.M.; Orsolani, L.; Martínez-Yépez, A.; Tapia, M.S.
2010. Microbiological and sensory quality of sonicated calciumadded orange juice, LWT - Food Science and Technology. 43(5):
808-813.
Cortés, C.; Esteve, M. J. y Frígola, A. 2008. Color of orange juice
treated by High Intensity Pulsed Electric Fields during refrigerated
storage and comparison with pasteurized juice, Food Control. 19(2):
151-158.
Hartyáni P.; István D.; Zsuzsanna C.; Dávid-Balázs K.; Tóth-Markus
M. y Sass-Kiss, A. 2011. Physical–chemical and sensory properties
of pulsed electric field and high hydrostatic pressure treated citrus
juices, Innovative Food Science & Emerging Technologies. 12(3):
255-260.
Hyun M. y Byoungseung Y. 2015. Rheological Characteristics of
Cold Thickened Beverages Containing Xanthan Gum–Based Food
Thickeners Used for Dysphagia Diets, Journal of the Academy of
Nutrition and Dietetics. 115(1): 106-111.
Tiwari, B.K.; O’ Donnell, C.P.; Muthukumarappan, K. y Cullen, P.J.
2009. Ascorbic acid degradation kinetics of sonicated orange juice
during storage and comparison with thermally pasteurised juice,
LWT - Food Science and Technology. 42(3): 700-704.
Guignon B.; Cristina A.; Sanz, P. y Otero L. 2012. Orange juice
pvT-properties for high-pressure processing and modeling purposes:
Importance of soluble solids concentration, Food Research
International. 46(1): 83-91.
Universidad Católica de Pereira
38
[23] Soares Leite T. P.; Augusto, E.D. y Cristianini, M. 2014. The use
of high pressure homogenization (HPH) to reduce consistency
of concentrated orange juice (COJ), Innovative Food Science &
Emerging Technologies. 26: 124-133.
[24] Croak S. y Corredig, M. 2006. The role of pectin in orange juice
stabilization: Effect of pectin methylesterase and pectinase activity
on the size of cloud particles, Food Hydrocolloids. 20(7): 961-965.
[25] Mirhosseini H.; Chin P. T.; Nazimah S.A.; Hamid, S.; Yusof, B. y
Huey C. 2009. Characterization of the influence of main emulsion
components on the physicochemical properties of orange beverage
emulsion using response surface methodology, Food Hydrocolloids.
23(2): 271-280.
[26] Paquet É.; Raza H.; Laurent F.; Makhlouf, J.; Lemieux, S.; Turgeon,
S. 2014. Effect of processing treatments and storage conditions on
stability of fruit juice based beverages enriched with dietary fibers
alone and in mixture with xanthan gum, LWT - Food Science and
Technology. 55(1): 131-138.
[27] Remini H.; Mertz, C.; Belbahi, A.; Achir, N.; Dornier, M.; Madani,
K. 2015. Degradation kinetic modelling of ascorbic acid and colour
intensity in pasteurised blood orange juice during storage, Food
Chemistry. 173: 665-673.
[28] Meléndez-Martínez A.J.; Gómez-Robledo L.; Melgosa, M.; Vicario,
I.M. Heredia, F.J. 2011. Color of orange juices in relation to their
carotenoid contents as assessed from different spectroscopic data,
Journal of Food Composition and Analysis. 24(6): 837-844.
[29] Sopade P.A., Halley, P.J. Cichero, J.A.Y. Ward, L.C. Liu, J. Varliveli,
S. 2008. Rheological characterization of food thickeners marketed
in Australia in various media for the management of dysphagia. III.
Fruit juice as a dispersing medium, Journal of Food Engineering.
86(4): 604-615.
[30] Colombo Pimentel T.; Scaramal M.; Prudencio, S. 2014. Probiotic
clarified apple juice with oligofructose or sucralose as sugar
substitutes: Sensory profile and acceptability, LWT - Food Science
and Technology, Available online.
[31] Furtado de Oliveira R. y Bolini H. 2014. Different sweeteners in
passion fruit juice: Ideal and equivalent sweetness, LWT - Food
Science and Technology, Available online.
[32] Brown A. W.; Bohan B.; Onken, K.; Beitz, D. 2011. Short-term
consumption of sucralose, a nonnutritive sweetener, is similar to
water with regard to select markers of hunger signaling and shortterm glucose homeostasis in women, Nutrition Research. 31(12):
882-888.
[33] Ferrer I. y Thurman, M. 2010. Analysis of sucralose and other
sweeteners in water and beverage samples by liquid chromatography/
time-of-flight mass spectrometry, Journal of Chromatography A.
1217(25): 4127-4134.
[34] Basu S.; Shivhare, U.S.; Singh, T.V. 2013. Effect of substitution
of stevioside and sucralose on rheological, spectral, color and
microstructural characteristics of mango jam, Journal of Food
Engineering. 114(4): 465-476.
[35] Yuki N.; Koichi W.; Akito.; Yoko.; Ryuichiro T.; Makoto O.; Masami
M. 1999. Survival of a probiotic, Lactobacillus casei strain Shirota,
in the gastrointestinal tract: Selective isolation from faeces and
identification using monoclonal antibodies, International Journal of
Food Microbiology. 48(1): 51-57.
[36] Carbonell J.V.; Tárrega, A.; Gurrea, M.C.; Sentandreu, E. 2011.
Chilled orange juices stabilized by centrifugation and differential
heat treatments applied to low pulp and pulpy fractions, Innovative
Food Science & Emerging Technologies. 12(3): 315-319.
[37] Martinez P.; Martín-Belloso, O. 2007. Effects of high intensity pulsed
electric field processing conditions on vitamin C and antioxidant
capacity of orange juice and gazpacho, a cold vegetable soup, Food
Chemistry. 102(1): 201-209.
[38] Martín-Diana A. B.; Rico, D.; Barat, J.M.; Barry-Ryan, C. 2009.
Orange juices enriched with chitosan: Optimisation for extending the
shelf-life, Innovative Food Science & Emerging Technologies. 10(4):
590-600.
[39] Tahiri I.; Makhlouf, J.; Paquin, P. y Fliss, I. 2006. Inactivation of
food spoilage bacteria and Escherichia coli O157:H7 in phosphate
buffer and orange juice using dynamic high pressure, Food Research
International. 39(1): 98-105.
Entre Ciencia e Ingeniería
Juan Carlos Lucas Aguirre es Ingeniero Agroindustrial, Magister en
Ingeniería de alimentos y candidato a doctor en ciencia agrarias de la
Universidad Nacional de Colombia, sede Medellín, es Profesor-Investigador
de carrera del programa de Ingeniería de alimentos de la Universidad del
Quindío.
Victor Dumar Quintero Castaño es Químico, Magister en Química de
alimentos, es Profesor-Investigador de carrera del programa de Ingeniería
de alimentos y Coordinador de la Maestría en Procesos Agroindustriales de
la Universidad del Quindío.
María Cecilia Londoño Castaño es química de la Universidad del Quindío,
egresada en año 2014. Se ha desempeñado como auxiliar de investigación
en proyectos ejecutados por el grupo de investigación de agroindustria de
frutas tropicales de la Universidad del Quindío durante los años 2012 y
2013.
39
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 39 - 48
Modelos de crecimiento de grietas por fatiga1
Models of fatigue crack growth
A. A. Andrade, W. A. Mosquera y L. V. Vanegas
Recibido Abril 20 de 2015 – Aceptado Septiembre 23 de 2015
Resumen—Este artículo estudia los diferentes modelos
de crecimiento de grietas por fatiga, exponiendo una breve
descripción histórica. Siguiendo la línea cronológica en el
desarrollo de la investigación, hace especial énfasis en la ley
de Paris y luego estudia algunos modelos específicos que, en
general, corresponden a investigaciones de punta realizadas
por diversos grupos, en el ámbito internacional. El objetivo
principal es analizar y discutir las ventajas y desventajas de
los diferentes modelos, teniendo en cuenta condiciones como la
facilidad de aplicación, la disponibilidad de datos y la validez
con respecto a los resultados experimentales.
Palabras clave—mecánica de fractura, fatiga, crecimiento
de grietas, Ley de Paris, microgrietas, macrogrietas, elementos
finitos.
Abstract— In this work, different models of fatigue
crack growth are studied; a brief historical description on
this subject is also provided. The research on this topic is
described chronologically; however, emphasis is made on the
model proposed by Paris. Then, a number of models that, in
general, correspond to cutting-edge research conducted by
various international research groups are studied. The main
aim of this work is to analyze and discuss the advantages and
disadvantages of the different models, taking into account
criteria such as ease of application, data availability, and
correlation with experimental results.
1
Este trabajo es producto del proyecto de investigación “Modelado de
crecimiento de grietas por fatiga por ludimiento”, perteneciente al grupo de
investigación Procesos de manufactura y diseño de máquinas, vinculado
a la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de
Pereira.
A. A. Andrade, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería
Mecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de
Pereira, Pereira (Colombia); correo e.: [email protected].
W. A. Mosquera, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería
Mecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de
Pereira, Pereira (Colombia); correo e.: [email protected].
L. V. Vanegas, Ingeniero Mecánico, M.Sc., Ph.D., Profesor Titular de
la Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira,
Pereira (Colombia); correo e.: [email protected].
Key words — fracture mechanics, fatigue, crack growth,
Paris Law, microcracks, macrocracks, finite elements.
I. Introducción
E
N la actualidad, la mayoría de componentes de
maquinaria presentan discontinuidades o entallas, las
cuales generalmente aparecen por su proceso de fabricación
y condiciones de funcionamiento. Debido a las cargas
cíclicas, con el tiempo, estas discontinuidades provocan la
aparición de grietas, las cuales generan gran concentración
de esfuerzos que podrían producir fallas en la pieza. El
estudio del efecto del esfuerzo aplicado, tamaño de la grieta,
geometría de la pieza y velocidad de crecimiento de grieta
sobre el crecimiento de grietas por fatiga es de gran interés
para la comunidad científica.
En el proceso de crecimiento de grieta por fatiga, se
presentan tres etapas hasta la rotura de la pieza [1]. Estas
etapas, para materiales dúctiles, son:
1. Periodo de nucleación e inicio de la grieta en la
zona donde la concentración de esfuerzos provoca
deformaciones plásticas cíclicas. Esta etapa no
siempre se presenta, ya que el material puede contener
imperfecciones tipo grieta.
2. Crecimiento de la grieta en la zona plástica donde se
originó.
3. Propagación de la grieta en la pieza, fuera del campo
de concentración de esfuerzos donde se originó, hasta
producir el fallo final.
En este trabajo se estudian diferentes modelos de
crecimiento de grietas por fatiga. En el capítulo II se
presenta una breve reseña histórica, en orden cronológico,
de los modelos desarrollados para determinar el crecimiento
de grietas por fatiga. El capítulo III describe la Ley de Paris,
indicando el rango en que puede aplicarse y los rangos
Universidad Católica de Pereira
40
en los que esta ley no es aplicable. Los capítulos IV a VII
presentan diferentes modelos basados en la Ley de Paris, en
elementos finitos, en ensayos no destructivos y en la zona
cohesiva. El capítulo VIII presenta una comparación de los
modelos mostrando sus ventajas y desventajas. Finalmente,
las conclusiones son presentadas en el capítulo IX.
II. Descripción histórica de las teorías de
crecimiento de grieta por fatiga
Los primeros estudios con cargas cíclicas en elementos
mecánicos se desarrollaron en 1829, cuando el ingeniero W.
Albert sometió cadenas elevadoras de material a sucesivas
cargas y descargas [2]. En los años 1850, el ingeniero August
Wöhler [3] estudió las causas que provocaban fallas por
fatiga en los ejes de las ruedas de trenes. La importancia de
este trabajo fue establecer los conceptos del límite de fatiga
y la gráfica esfuerzo vs. número de ciclos. Posteriormente,
Gerber [4], Goodman [5] y Soderberg [6] estudiaron la
falla por fatiga cuando se superponen cargas estáticas a las
cíclicas.
En el año 1921, Griffith [7] estudió la fractura en el
vidrio y estableció una teoría sobre el crecimiento inestable
de grietas en materiales frágiles. En el año 1940, Miner
expuso una teoría para determinar la acumulación de daño
por fatiga [8], teniendo como base los aportes realizados por
el ingeniero Palmgren [9] [10]. Luego, Weibull [11] [12]
empieza a realizar los primeros análisis estadísticos para
caracterizar la resistencia.
En los años 1950, el ingeniero George Irwin [13]
introdujo el término factor de intensidad de esfuerzos (K) el
cual cuantifica el campo de esfuerzos alrededor de una grieta
y puede expresarse como
K=Y∙s∙√p∙a
Donde a es el tamaño de la grieta (por ejemplo, la
longitud de una grieta de borde), s es el esfuerzo remoto
aplicado y Y es un factor geométrico que depende de la
geometría, el tipo de carga y las dimensiones del elemento.
En los años 1960, los ingenieros Coffin y Manson [14]
estudiaron el comportamiento a la fatiga para la condición
de alto número de ciclos y su principal contribución fue el
diagrama amplitud de la deformación vs. número de ciclos.
Neuber [15], Peterson [16] y Stowell [17] investigaron
diversas teorías para calcular el tiempo de vida por fatiga
y determinaron el comportamiento de las deformaciones
plásticas en piezas con diferentes tipos de discontinuidades.
En 1961, el ingeniero Paul C. Paris [18] estudió la relación
entre la velocidad de crecimiento de la grieta
y la variación
del factor de intensidad de esfuerzos DK, encontrando una
relación muy acertada según los datos experimentales para
tamaños de grieta superiores a un milímetro [19], las cuales
se denominan grietas medianas y grietas grandes, pero el
Entre Ciencia e Ingeniería
modelo de Paris no daba aproximaciones reales a problemas
que involucraban grietas pequeñas.
En 1975, Pearson [20] investigó el crecimiento de
microgrietas por fatiga para valores entre 10µm y 100 µm,
como alternativa al estudio de Paris. Su estudio concluyó
que la velocidad de propagación de la grieta era mucho
menor, si se comparaba con los resultados obtenidos al
emplear la ley de Paris. Autores como Kitagawa y Takahashi
[21] determinaron los tamaños de grietas para los cuales la
Mecánica de Fractura Elástica Lineal (LEFM) no arrojaba
resultados confiables al tratar de describir la propagación de
la grieta.
Diversas investigaciones [22] [23] han demostrado
que el comportamiento de las microgrietas está fuertemente
relacionado con la microestructura cristalina del material.
La relación entre la microgrieta y los bordes de grano, la
influencia de las orientaciones cristalinas del grano y el tipo
de material son factores determinantes para la propagación
de grietas pequeñas [24].
III. Ley de paris
A. Antecedentes
Se entiende por fatiga aquellas situaciones en las que
componentes estructurales y mecánicos están sometidos a
niveles cíclicos de carga, inferiores a la resistencia máxima
(estática) de la pieza, que conllevan a un fallo. Uno de
los objetivos en el diseño de fatiga consiste en desarrollar
un método para predecir la propagación de grietas, que
relacione las propiedades del material con las características
geométricas y las diferentes condiciones de carga [25]. Hasta
los años sesenta, los métodos de predicción tenían la forma:
Donde a, p y q son constantes experimentales, Ds es la
variación del esfuerzo remoto aplicado y N es el número de
ciclos. En 1963, Paris y Erdogan [18] determinaron que para
una variación de cargas cíclicas, la variación del factor de
intensidad de esfuerzos (DK) es el parámetro que caracteriza
el crecimiento de grietas por fatiga.
Donde Kmax y Kmin son los valores máximo y mínimo del
factor de intensidad de esfuerzos (si Kmin es negativo se toma
igual a cero en la ecuación anterior). Por lo tanto:
Los valores smax y smin son los esfuerzos máximo y
mínimo de cada ciclo (si, smin< 0, smin se toma igual a cero).
41
B. Ley de Paris
Paris propuso una ley empírica basada en los conceptos
de LEFM, la cual unificaba todos los datos experimentales de
crecimiento de grietas por fatiga, descritos solo parcialmente
por los modelos anteriores [18]. Esta ley se expresa:
Donde el término
es el incremento de la longitud
de la grieta por cada ciclo de fatiga y DK es la variación del
factor de intensidad de esfuerzos. Para fatiga por tracción el
término DK se refiere al factor de intensidad de esfuerzos en
Modo I. C y m son constantes que dependen del material y
son obtenidas experimentalmente. La constante C también
puede depender en cierta medida de la relación de cargas
(R):
polímeros [26]. El fallo final de un componente, en el que
una grieta crece por fatiga, sucede cuando el valor Kmax es
igual al valor crítico Kc. Cuando Kmax se aproxima a Kc en la
fase III, la grieta crece más rápidamente que en la fase II. En
1967, Laird [27] propuso un modelo de crecimiento de grieta
para la fase II, basado en el enromamiento del frente de la
grieta, asemejándose al tamaño CTOD (Crack Tip Opening
Displacement) alcanzado en cargas crecientes. Si el campo
de esfuerzos en el frente de la grieta está a compresión y la
cierra parcialmente, entonces se genera una propagación de
grieta en cada ciclo.
La ecuación de Paris se puede escribir en coordenadas
logarítmicas, las cuales arrojan como resultado una recta de
pendiente m:
En la Fig. 1, se presentan las tres fases de crecimiento
de grieta por fatiga [18]. La utilización de la ecuación en la
fase I arroja como resultado una predicción menor a la vida
real de la pieza, mientras que en la fase III el crecimiento
de grieta se acelera fuertemente. La fase II arroja resultados
altamente aproximados; es la fase que presenta mejores
condiciones y mayor importancia para diseñador.
Fig. 2. Esquema del proceso de plastificación y enromamiento del
frente de la grieta en la fase II [27].
El modelo de Laird representado en la Fig. 2 [27], se
resume así:
a)
b)
c)
d)
e)
f)
Mínima carga
Carga de tracción creciente
Carga de tracción máxima
Inicio del descenso de la carga
Carga mínima del nuevo ciclo
Carga de tracción creciente en el nuevo ciclo
La variación de la abertura de frente de grieta se
representa por:
Aplicando el modelo CTOD, se obtiene:
Fig. 1. Curva característica de propagación de grieta [18].
Para cada ciclo de carga, se genera una estriación
perpendicular a la dirección de propagación de la grieta y
la distancia entre cada estriación es igual al avance en cada
ciclo.
No obstante, no todos los materiales presentan
estriaciones en la propagación de la fase II. Estas aparecen
claramente en metales puros, aleaciones dúctiles y en algunos
Universidad Católica de Pereira
42
En la mayoría de casos, al reemplazar los términos se
obtiene que m » 2; pero en algunos materiales, la relación
no es inversamente proporcional a sy . Esta ecuación sólo
es válida para la fase II de la ley de Paris. Debido a esto,
muchos investigadores se enfocaron en determinar el
comportamiento de las grietas para la fase I y para la fase III,
lo que arrojó gran cantidad de teorías acerca del crecimiento
de microgrietas [28] [29] y otras según el tipo de material
[30] [31] [32].
IV. Modelos basados en la ley de paris
Diversas investigaciones en todo el mundo [33] [34]
[35] tienen como objetivo determinar el comportamiento del
crecimiento de grieta por fatiga variando cada término de la
ecuación de Paris. Así, algunas investigaciones se enfocan
en estudiar el parámetro m y el parámetro C, otras se enfocan
en estudiar DK y otras
. Algunos de estos modelos
actuales se exponen a continuación.
A. Determinación del exponente “m” de Paris
Para una gran cantidad de casos, el valor del exponente
de Paris es m » 2. Pero en realidad, el valor de este exponente
arroja resultados en un rango desde 1.5 hasta 4 [36], variando
de acuerdo al tipo de material, las condiciones ambientales y
el tipo de carga aplicada. Estas constantes no son fáciles de
relacionar según el tipo de material.
La ecuación de Paris no fue la primera ley en describir
el crecimiento de grieta por fatiga. La primera ley se atribuye
a la Organización Australiana de Protección de la Ciencia y
la Tecnología (Australian Defence Science and Technology
Organisation- DSTO) que expresó la ley de la siguiente
forma:
Donde y es un parámetro que depende de la geometría,
el material y el tipo de carga; a es la profundidad de la grieta
en el tiempo NL y a0 es la longitud inicial de la grieta cuando
el número de ciclos es N = 0. Posteriormente Frost y Dugdale
[37] [38] encontraron que y podía ser expresada como:
Donde W es una constante y α = 3. El modelo de Frost y
Dugdale es conocido como “la ley de los esfuerzos cúbicos”;
puede escribirse:
La diferencia entre los esfuerzos cuadráticos (Paris)
y los esfuerzos cúbicos (Frost y Dugdale) puede ser
determinada graficando las funciones de la forma:
Entre Ciencia e Ingeniería
Las dos curvas pueden ser traslapadas ajustando las
constantes A y B, para así determinar las variaciones en y y C
de tal forma que coincidan con los resultados experimentales.
Recientemente Polak y Zezulka [39] propusieron que la
ecuación hallada por DSTO se puede aplicar a microgrietas.
Sus experimentos fueron corroborados en aceros inoxidables.
B. El modelo de Elber
Este modelo se basa en el concepto de cierre de grieta.
El factor DK es sustituido por el rango de intensidad de
esfuerzos efectivo:
Donde Kop es el factor de intensidad de esfuerzos
cuando la grieta se abre debido a sop [40]. Para tratar de
incorporar la relación de esfuerzos R, varios modelos de
cerramiento de grieta parciales han sugerido expresar la
ecuación de forma uniforme así:
Donde f(R) es una función de la relación de amplitud
de carga R. Sin embargo, para ambos modelos es difícil
determinar Kop debido a que está relacionado con la relación
de cargas R.
C. El modelo Kujawski
Este modelo no utiliza los conceptos de cerramiento
de grieta, sino que implementa una media geométrica de la
parte positiva del factor de intensidad de esfuerzos aplicado
DK + y el valor máximo Kmax [41]:
Donde a es el parámetro de correlación. DK+ = DK
cuando R ≥ 0 y DK+ = DKmax para R < 0. Este modelo
supone que las cargas cíclicas no contribuyen al crecimiento
de grieta por fatiga cuando la relación de carga es negativa.
El parámetro α se obtiene al graficar la curva logarítmica
Kmax vs K+ dado un crecimiento constante
. Al conocer el
valor de α es posible conocer el valor de DK+. Este modelo
es válido de acuerdo a los datos experimentales si R ≥ 0.
D. El modelo mejorado de Huang
Huang y Moan [42] propusieron un modelo mejorado
para determinar el crecimiento de grieta por fatiga, el cual
toma los datos obtenidos de las pruebas con diferentes
valores de R y los unifica todos en la curva correspondiente
a R = 0. Este modelo supera las aproximaciones de los
valores mo para altas relaciones de R obtenidas por el modelo
Kujawski [41]. El método se expresa de la siguiente forma:
43
real [47] [48], arrojando como resultado muy buenas
aproximaciones [49]. Los métodos de elementos finitos se
derivan en métodos locales y métodos energéticos [50].
Donde b y b1 son parámetros dados en [42] y las
constantes que dependen del material Co y mo corresponden
a las condiciones para las cuales R = 0.
Aunque el Método de Elementos Finitos (FEM)
es robusto y está muy desarrollado, no permite modelar
fácilmente discontinuidades en movimiento como es el
caso de la propagación de grieta [51]. La formulación
convencional del problema de grieta con FEM requiere
mallar la geometría cada vez que la grieta se propague,
mientras que el método de los elementos finitos extendidos
(XFEM) sólo utiliza una única malla. La gran ventaja de
XFEM es que no incluye la grieta en el mallado. [52]
A. Métodos locales o directos [53]
Son aquellos que permiten obtener una estimación
directa de K, basada en la correcta representación de los
campos singulares [54] de deformaciones en la proximidad
del extremo o frente de grieta. La gran ventaja de la
implementación de este método es que evita la necesidad de
un postproceso [55] [56] de los resultados, ya que usualmente
se combina con el método de los elementos singulares. [57]
Fig. 3. Representación esquemática del crecimiento de grietas y los
diferentes valores de la relación de cargas R [42].
B. Métodos energéticos o indirectos: la integral de
contorno J [58]
Bajo las hipótesis de sólido homogéneo con
comportamiento elástico, libre de fuerzas por unidad de
superficie aplicadas, Rice [58] definió su integral J según la
siguiente ecuación:
En este modelo el factor de corrección M está dado
por una función continua a trozos, teniendo valores de R
tanto positivos como negativos. Los valores obtenidos
del crecimiento de grieta son muy acertados de acuerdo a
los valores obtenidos experimentalmente. No obstante,
el modelo posee la gran desventaja de que se desconocen
los valores de los parámetros b y b1 (excepto para algunos
aceros y aluminios); en el documento donde Huang presenta
el modelo no expone la metodología utilizada para calcular
dichos parámetros. El modelo sería un éxito si se conocieran
más valores de b y b1.
Donde (Fig. 4):
G: es cualquier camino que rodee el extremo de la grieta,
cuyo contorno es (Gt)
W: energía de deformación por unidad de volumen
T: vector de tracciones en el contorno G
u: vector de desplazamientos
dG : elemento del arco de la curva G
E. Otros modelos
Algunos modelos que se basan en la ley de Paris
proponen variar DK y Kmax para analizar la propagación
de grietas [43] [44]. Otros presentan mejores correlaciones
y proponen modelos de predicción de crecimiento de grieta
para diferentes relaciones de carga R usando los parámetros
DK+ y Kmax [45]. Actualmente es un campo de la mecánica
de fractura que presenta gran interés para la comunidad
científica en el ámbito mundial.
V. Modelos basados en elementos finitos
Gracias a los grandes avances en la computación,
los modelos basados en elementos finitos [46] han sido
ampliamente investigados y aplicados en casos de la vida
Fig. 4. Grieta en un dominio bidimensional [58].
Universidad Católica de Pereira
44
· Estudio de crecimiento de grietas por fatiga en 3D usando
técnicas de remallado [59]
Donde eif es el tensor de deformaciones infinitesimales.
Por otra parte, las componentes del vector de tracciones T
sobre el contorno G se definen en función del vector unitario
n indicado en la Fig. 4.
C. Método de elementos finitos extendido (XFEM)
De manera general, la aproximación de elementos
finitos extendida [51] para el caso de una grieta bidimensional
es:
Donde:
J: conjunto de los nodos no enriquecidos (círculos pequeños
en la Fig. 5)
J: conjunto de los nodos enriquecidos con funciones
Heaviside (círculos grandes en la Fig. 5)
k: conjunto de los nodos enriquecidos con funciones de
extremo de grieta (cuadros en la Fig. 5)
Fl(x): funciones de extremo de grieta
N (x): funciones de forma convencionales
H (x): función de signo de Heaviside
bil: son los grados de libertad (GDL) añadidos a los nodos
marcados a los cuadros
Este modelo utiliza la teoría FEM basada en el método
de la integral J y su contribución principal es aplicar técnicas
avanzadas de remallado por zonas con el fin de estudiar la
influencia de varios factores como la forma de la grieta y el
cerramiento de ella.
Los resultados numéricos son comparados con datos
experimentales para esfuerzos de torsión, flexión pura y
combinados. Si no se tiene en cuenta el modelo de cerramiento
de grieta, el modelo no arroja resultados confiables respecto
a los datos experimentales, principalmente para estados de
esfuerzo combinados. La gran desventaja de este método
consiste en modelar y simular el crecimiento de grietas
largas no planas.
· Modelado en 3D del crecimiento de grietas usando métodos
de partición de unidades [60]
Esta metodología propone utilizar técnicas de libre
mallado aplicadas al rastreo de crecimiento de grieta
(Fig. 6). El modelo de Galerkin es propuesto en detalle e
implementado en el contexto de XFEM.
El método es de especial utilidad en el análisis de
propagación de grieta al evitar el problema del remallado,
ofreciendo buenos resultados.
Fig. 6. Técnica de rastreo del crecimiento de grieta [60].
Este modelo arroja buenas aproximaciones comparadas
con los resultados experimentales, especialmente para piezas
que involucran una gran deformación y fragmentación.
Fig. 5. Malla con XFEM mostrando los nodos enriquecidos con las
funciones de Heaviside y las de extremo de grieta [52].
D.
Análisis FEM y XFEM en 3D
Algunos modelos más refinados de crecimiento de grieta
por fatiga que se basan en las metodologías de elementos
finitos se han enfocado en estudiar el comportamiento
tridimensional del fenómeno físico. Debido a la complejidad
matemática y metodológica, sólo se realizará una breve
descripción de dichos modelos.
Entre Ciencia e Ingeniería
El inconveniente del modelo radica en establecer las
condiciones para el cerramiento en el frente de la grieta y
las condiciones de dominio de ésta. El modelo por sí mismo
no proporciona información acertada acerca del factor de
intensidad de esfuerzos K alrededor de la grieta en 3D,
lo cual limita mucho su implementación en aplicaciones
industriales.
VI. Modelos basados en ensayos no destructivos
Actualmente algunos grupos de investigación estudian
diferentes metodologías de crecimiento de grieta basadas
en ensayos no destructivos (END). Estos modelos utilizan
45
pruebas de ultra sonido, análisis de rayos X y técnicas fotoelásticas para medir el crecimiento de grieta por fatiga y en
muchas ocasiones determinar el tipo de material fracturado.
A continuación se exponen dos metodologías donde se
implementan END.
A. Caracterización del crecimiento de grietas por fatiga del
acero RAFM usando técnicas de emisión acústica [61]
Esta investigación fue desarrollada para entender las
diferentes sub-etapas observadas en el crecimiento de grietas
por fatiga y los diferentes umbrales de la ley de Paris, usando
la técnica de las emisiones acústicas. Esta metodología se
basa puramente en ensayos experimentales y tiene la ventaja
de arrojar datos reales de algunos materiales. La mayor
desventaja es que requiere de costosos equipos de laboratorio
para poder ejecutarlas y elaborados diseños de experimentos
para diferentes tipos de material.
B. Análisis de la morfología de grieta y patrones de fatiga
térmica usando tomografías de rayos x [62]
En Nilsson et al. [62], se utilizan rayos x para
caracterizar el daño causado por fatiga térmica en un acero
para tuberías tipo 316L. En esta metodología se usa una
probeta de sección circular, la cual se somete a carga axial; se
usa una resistencia que induce calentamiento en la probeta.
Los daños observados son geométricamente complejos
cuando se tienen grietas circunferenciales y axiales en 3D.
Este método tiene la ventaja de obtener resultados
experimentales muy precisos, los cuales serían muy difíciles
de obtener por medio de cálculos teóricos debido a la gran
complejidad en la distribución y orientación de las grietas.
La principal desventaja para la implementación de este
método está relacionada con los altos costos de los equipos
involucrados en el desarrollo del experimento y la puesta a
punto en el laboratorio.
VII. Modelos basados en la zona cohesiva
Esta metodología se basa en el método de los elementos
finitos [63]. Se expone en un capítulo independiente debido a
que es un modelo ampliamente investigado. [64] [65]
En los materiales elásticos y frágiles se supone que no
hay fuerzas de cohesión entre las caras de la grieta. En los
materiales elastoplásticos simples (o sin endurecimiento por
deformación) se supone que pueden existir zonas de cohesión
iguales al límite de fluencia entre el fondo de la grieta y
cierta profundidad de la pieza, esta región es denominada
zona cohesiva [66].
Esta metodología fue desarrollada con el fin de estudiar
la fractura súbita de materiales como el hormigón y las rocas
y posteriormente fue combinada con los elementos finitos con
el fin de tratar de predecir el crecimiento de grieta por fatiga
para sólidos isótropos [67]. Estos modelos se denominaron
modelos no lineales de mecánica de fractura y están basados
en dos conceptos íntimamente ligados: ablandamiento por
deformación (strain softening) y un criterio de localización.
[68].
Fig. 7. Ilustración grieta con zona cohesiva [68].
A partir de los parámetros elásticos y de fractura se
definen dos magnitudes llamadas: abertura característica de
grieta (wch) y longitud característica (lch).
Donde:
GF: energía de fractura, la cual depende del tipo de material
sy: esfuerzo de fluencia
E: módulo de elasticidad
Los parámetros wch y lch son útiles para reducir las
dimensiones estructurales a forma adimensional y dan lugar
a los números de fragilidad estructural, que cuantifican la
fragilidad de un elemento dado. [69]
Es de resaltar que aún no se ha podido obtener una
teoría completamente general. La teoría está completamente
desarrollada para sólidos isótropos para modo I (modo de
apertura).
El comportamiento de una grieta para sólidos
anisótropos, modos mixtos o solicitación no monotónica está
todavía sujeto a especulación.
VIII. Comparación entre los modelos
presentados
Para finalizar, la tabla I presenta un listado de los modelos
de crecimiento de grietas por fatiga, descritos anteriormente,
con sus ventajas y desventajas.
IX. Conclusiones
En este artículo se hizo una revisión de los principales
modelos existentes de crecimiento de grietas por fatiga. Se
expusieron de forma concisa las diferentes metodologías
utilizadas para modelar el crecimiento de grietas por
fatiga, teniendo en cuenta sus facilidades de aplicación, la
disponibilidad de datos y la validez respecto a los resultados
experimentales.
En el capítulo VIII se compararon los diferentes
modelos, presentando los resultados generales de ventajas y
desventajas. Con esta revisión del estado del arte y el análisis
de las características de los diferentes modelos, se concluye
Universidad Católica de Pereira
46
que con las condiciones actuales, la ley de Paris parece
ser el método matemático a usar en un contexto práctico,
aunque sus resultados son aproximados. Otros modelos más
refinados podrían usarse en la medida en que se disponga de
suficiente información experimental. El método de elementos
finitos extendido puede usarse en conjunto con la ley de
Paris u otras leyes más refinadas para modelar geometrías y
condiciones complejas de crecimiento de grietas por fatiga.
Tabla I. ventajas y desventajas de los modelos de crecimiento de grietas
MODELO
VENTAJAS
DESVENTAJAS
No aplica para todos los tipos de materiales. Sólo es válido
si LEFM es válida. No arroja resultados confiables acerca
del periodo de nucleación y crecimiento de microgrietas, ni
tampoco de grietas pequeñas.
Ha sido aplicado en algunos casos experimentales mostrando
buenas aproximaciones, pero generalmente es un modelo
de uso más teórico. No existen grandes bases de datos
experimentales dado el caso de corroborar una aproximación
teórica.
Usualmente el factor de intensidad de esfuerzos de apertura
de grieta (Kop) es difícil de calcular. Experimentalmente
presenta dificultades al tratar de medir los efectos en la
grieta, usualmente se desprecia el efecto de la compresión en
el cálculo de crecimiento de grietas por fatiga.
LEY DE PARIS
Este modelo arroja buenas aproximaciones comparadas con
los resultados experimentales, especialmente para piezas que
involucran una gran deformación y fragmentación.
ABERTURA DE
GRIETA (CTOD)
Este modelo es teórico, de fácil aplicación ya que depende
de factores geométricos y según el tipo de material. Presenta
una buena aproximación al modelo de crecimiento de grieta
por fatiga.
ELBER
CERRAMIENTO
DE GRIETA
Modelo de cerramiento ampliamente usado por metodologías
más refinadas. Presenta una excelente aproximación al
fenómeno de cerramiento de grieta para resultados teóricos.
KUJAWSKI
El modelo Kujawski no tiene en cuenta los efectos de
cerramiento de grieta, por tanto es de muy fácil aplicación
teórica ya que no es necesario calcular el Kop. Si R ≥ 0
presenta mejores aproximaciones teóricas a los resultados
experimentales, en comparación con la ley generalizada de
Paris.
No es válido si la relación de cargas es menor a cero (R < 0).
HUANG
MEJORADO
El modelo mejorado de Huang presenta mejores
aproximaciones teóricas a los resultados experimentalmente
hallados, en comparación con los resultados obtenidos por la
ley de Paris, el modelo de Elber y el Kujawski.
No existe disponibilidad de datos para la aplicación del
modelo debido a que los parámetros que dependen del
material no han sido ampliamente investigados. Es un
modelo teórico de difícil implementación.
ELEMENTOS
FINITOS (FEM)
Modelo ampliamente investigado. Actualmente es aplicado
en todos los casos donde se simulen grietas estáticas. Este
modelo es fácilmente aplicable si se utilizan herramientas
computacionales. Presenta muy buenas aproximaciones a los
resultados experimentalmente hallados.
Este modelo no es aplicable para la propagación de la grietas
por fatiga. Es muy difícil de implementar si no se tiene una
buena herramienta de cómputo.
ELEMENTOS
FINITOS
EXTENDIDOS
(XFEM)
Este modelo presenta buenas aproximaciones a los resultados
experimentales. Es de fácil implementación si se tiene una
buena herramienta de cómputo. La mayor ventaja de este
método es que no incluye la grieta en el mallado, por tal razón
sólo utiliza una única malla. Es indispensable al momento de
simular el crecimiento de grieta por fatiga.
Es prácticamente imposible implementar este modelo
manualmente. El software que utiliza el modelo es de
alto costo. Es necesario tener una buena herramienta
computacional ya que consume muchos recursos de
cómputo.
FEM-XFEM 3D
MEJORADO CON
TECNICAS DE
REMALLADO
Utiliza la técnica FEM aplicando remallados para cada
crecimiento de grieta. Arroja excelentes aproximaciones en
comparación con los resultados experimentales. El modelo
es independiente del material ya que no utiliza LEFM sino el
método de la integral J.
No arroja resultados confiables si no se tiene en cuenta el
modelo de Elber, principalmente para estados de esfuerzo
combinados. La gran desventaja de este método consiste en
modelar y simular el crecimiento de grietas largas no planas.
FEM-XFEM 3D
AMPLIADO CON
TECNICAS DE
PARTICION DE
UNIDADES
Este modelo arroja buenas aproximaciones comparadas con
los resultados experimentales, especialmente para piezas que
involucran una gran deformación y fragmentación.
El modelo no proporciona resultados confiables del factor de
intensidad de esfuerzos alrededor de la grieta. Teóricamente
es difícil definir las condiciones para el cerramiento de grieta
y las condiciones de dominio de ésta.
BASADOS EN
ENSAYOS NO
DESTRUCTIVOS
(END)
BASADOS EN LA
ZONA COHESIVA
Son modelos experimentales basados principalmente en
técnicas de rayos x y ultrasonido. Estudian el crecimiento
de grieta para condiciones críticas como es el caso de fatiga
por ludimiento y fatiga térmica. Proporcionan modelos
experimentales que sirven como referencia para comparar la
validez de los resultados teóricos.
Este modelo fue desarrollado para utilizar en conjunto con
FEM y XFEM. Este modelo aplica para todos aquellos
materiales donde no es válido implementar LEFM.
Metodología ampliamente investigada con excelentes
aproximaciones a resultados para el modo I, si el material es
isótropo. Altamente aplicable debido a la implementación de
parámetros adimensionales.
Entre Ciencia e Ingeniería
Los equipos de laboratorio usados para la ejecución de las
pruebas son de alto costo, prácticamente sólo los tienen los
laboratorios más especializados en el tema.
El modelo no se encuentra completamente desarrollado. No
es válido para los modos II y III, ni tampoco es válido para
materiales anisótropos.
47
Referencias
[1] R. L. Norton, Diseño de Máquinas, 4ª ed. Mexico: Ed. Prentice-Hall
(Pearson), 2011.
[2] W. Schutz, A History of Fatigue, Ottobrun, Germany: Elsevier, 1996,
p. 2.
[3] A. Wohler, “Test to determinate the forces acting on railway carriage
axles and capacity of resistance of the axle,” Enginering, vol. 11,
1871.
[4] H. Geber, “Bestimmung der zulässigen spannungen in eisenkonstruktionen (Determinación de los esfuerzos admisibles en
estructuras de hierro),” Z. Bayer Arch. Ingenieur-Vereins, vol. 6,
1874, pp. 101-110.
[5] J. Goodman, Mechanics Applied to Engineering, London: Longmans,
Green & Co., 1899.
[6] K. L. Richards, Design Engineer´s Handbook, Washington D.C.: CRC
Press, Taylor and Francis Group, 2013.
[7] A. A. Griffith, “The phenomena of rupture and flow in solids,”
Philosophical Transactions of Royal Society of London, Series A, vol.
221, 1921, pp. 163-198.
[8] S. S. Manson y G. R. Halford, Fatigue and Durability of Structural
Materials, United States of America: ASM International, 2006.
[9] A. G. Palmgren, “Die lebensdauer von kugellargern (Durability of ball
bearing),” VDI-Zeitschrift des Vereines Deutscher Ingenieure, vol. 68
(14), 1924, pp. 339-341.
[10] M. A. Miner, “Cumulative damage in fatigue,” J. Appl. Mech., vol. 67,
1945, pp. A159-A164.
[11] W. Weibull, Fatigue Testing and Analysis of Results, Belfast:
Pergamon Press, 1961.
[12] W. Weibull, “A statical distribution function of wide applicability,” J.
Appl. Mech., vol. 18, 1951, pp. 293-297.
[13] G. R. Irwin, “Analyisis of stresses and strains near the end of crack
traversing a plate,” J. Appl. Mech., vol. 24, 1957, pp. 361-364.
[14] S. S. Manson, “Fatigue: a complex subject-some simple
approximations”, Exp. Mech., vol. 5 (4), 1965, pp. 193-226.
[15] H. Neuber, “Theory of stress concentration for shear-strained
prismatical bodies with arbitrary nonlinear stress-strain law,” J. Appl.
Mech., vol. 28 (4), 1961, pp. 544-560.
[16] R. E. Peterson, “Notch Sensitivity,” in Metal Fatigue, G. Sines & J. L.
Waisman, Eds. New York: McGraw-Hill, 1959, pp. 293-306.
[17] E. Z. Stowell, “Stress and strain concentration in a circular hole in an
infinite plate,” Naca Tech., Washington, D.C., Tech. Note 2073, 1950.
[18] P. Paris y F. Erdogan, “A critical analysis of crack propagation laws,”
J. Fluids Eng., vol. 85 (4), 1963, pp. 528-533.
[19] R. W. Hertzberg, Deformation and Fracture Mechanics of Engineering
Materials, 4th ed., U.S.A.: John Wiley & Sons, Inc., 1996.
[20] S. Pearson, “Initiation of fatigue cracks in commercial aluminium
alloys and the subsequent propagation of very short cracks,” Eng.
Frac. Mech., vol. 7 (2), 1975, pp. 235-240.
[21] H. Kitagawa y S. Takahashi, “Applicability of fracture mechanics to
very small cracks,” in Proc. ASM: Int. Conf. Mech. Behaviour Mat.,
Metalspark, Ohio, 1976, pp. 627-631.
[22] R. Jones, L. Molent y S. Pitt, “Crack growth of physically small
cracks,” Int. J. Fatigue, vol. 29 (9-11), 2007, pp 1658-1667.
[23] C. Vallellano Martin, “Crecimiento de grietas pequeñas por fatiga en
componentes con concentradores de tensión,” Tesis de Ph.D., Esc.
Téc. Sup. Ing. Ind., Univ. Sevilla, Sevilla, 1998.
[24] C. Vallellano, J. Vázquez, A. Navarro y J. Domínguez, “Modelo
micromecanico de crecimiento de grietas pequeñas por fatiga: una
aproximacion basada en dos condiciones umbrales,” Ana. Mecanica
de Fractura, vol. 25, 2008, pp. 349-354.
[25] N. Pugno, M. Ciavarella, P. Cornetti y A. Carpinteri, “A generalized
Paris’ law for fatigue crack growth,” J. Mech. Phys. Solids, vol. 54
(7), 2006, pp. 1333-1349.
[26] R. Branco, F. V. Antunes, J. A. Martins Ferreira y J. M. Silva,
“Determination of Paris law constants with a reverse engineering
technique,” Eng. Failure Analysis, vol. 16 (2), 2009, pp. 631-638.
[27] C. Laird, “The Influence of metallurgical structure on the mechanisms
of fatigue crack propagation,” Fatigue Crack Propagation ASTM
Special Technical Publication 415, 1967, pp. 131-168.
[28] J. Geathers, C. J. Torbet, J. W. Jones y S. Daly, “Investigating
environmental effects on small fatigue crack growth in Ti–6242S
using combined ultrasonic fatigue and scanning electron microscopy,”
Int. J. Fatigue, vol. 70, 2015, pp. 154-162.
[29] A. Turnbull, S. Zhou y M. Lukaszewicz, “Environmentally assisted
small crack growth,” Procedia Materials Science, vol. 3, 2014, pp.
204-208.
[30] G. J. Deng, S. T. Tu, Q. Q. Wang, X. C. Zhang y F. Z. Xuan, “Small
fatigue crack growth mechanisms of 304 stainless steel under different
stress levels,” Int. J. Fatigue, vol. 64, 2014, pp. 14-21.
[31] G. M. Owolabi y H. A. Whitworth, “Modeling and simulation of
microstructurally small crack formation and growth in notched
nickel-base superalloy component,” J. Materials Sc. & Tech., vol. 30
(3), 2014, pp. 203-212.
[32] Y. Zhang, H.-J. Shi, J. Gu, C. Li, K. Kadau y O. Luesebrink,
“Crystallographic analysis for fatigue small crack growth behaviors
of a nickel-based single crystal by in situ SEM observation,” Theo.
and App. Frac. Mech., vol. 69, 2014, pp. 80-89.
[33] M. Ciavarella, M. Paggi y A. Carpinteri, “ One, no one, and one
hundred thousand crack propagation laws: A generalized Barenblatt
and Botvina dimensional analysis approach to fatigue crack growth,”
J. Mech. Phys. Solids, vol. 56 (12), 2008, pp. 3416-3432.
[34] B. Farahmand y K. Nikbin, “Predicting fracture and fatigue crack
growth properties using tensile properties,” Eng. Frac. Mech., vol. 75
(8), 2008, pp. 2144-2155.
[35] B. E. K. Hachi, S. Rechak, M. Haboussi, M. Taghite y G. Maurice,
“Fatigue growth of embedded elliptical cracks using Paris-type law
in a hybrid weight function approach,” Comptes Rendus Mécanique,
vol. 336 (4), 2008, pp. 390-397.
[36] L. Molent, M. McDonald, S. Barter y R. Jones “Evaluation of
spectrum fatigue crack growth using variable amplitude data,” Int. J.
Fatigue, vol. 30 (1), 2008, pp. 119-137.
[37] N. E. Frost, K. J. Marsh y L. P. Pook, Metal Fatigue, Oxford: Oxford
University Press, 1974.
[38] N. E. Frost y D. S. Dugdale, “The propagation of fatigue cracks in
sheet specimens,” J. Mech. Phys. Solids, vol. 6 (2), 1958, pp. 92-110.
[39] J. Polak y P. Zezulka, “Short crack growth and fatigue life in austeniticferritic duplex stainless steel,” Fatigue Fracture Eng. Mat. Struc., vol.
28 (10), 2005, pp. 923-935.
[40] W. Elbert, “The significance of fatigue crack closure,” ASTM STP,
vol. 486, 1971, pp. 230-243.
[41] D. Kujawski, “
HYPERLINK “http://www.sciencedirect.com/
science/article/pii/S0142112301000238” A new (ΔK+Kmax)0.5 driving
force parameter for crack growth in aluminum alloys ,” Int. J. Fatigue,
vol. 23 (8), 2001, pp. 733-740.
[42] X. Huang y T. Moan, “Improved modeling of the effect of R-ratio on
crack growth rate,” Int. J. Fatigue, vol. 29 (4), 2007, pp. 591-602.
[43] S. Stoychev y D. Kujawski, “Analysis of crack propagation using K
and Kmax,” Int. J. Fatigue, vol. 27, 2005, pp. 1425-1431.
[44] N. Pugno, P. Cornetti y A. Carpinteri, “New unified laws in fatigue:
from the Wöhler´s to the Paris´ regime,” Eng. Frac. Mech., vol. 74,
2007, pp. 595-601.
[45] S. Dinda y D. Kujawski, “Correlation and prediction of fatigue crack
growth for different R-ratios using Kmax and K+ parameters,” Eng.
Frac. Mech., vol. 71, 2004, pp. 1779-1790.
[46] V. B. Watwood Jr., “The finite method for prediction of crack
behavior,” Nuclear Eng. Design, vol. 11 (2), 1970, pp. 323-332.
[47] R. Jones, L. Molent y K. Krishnapillai, “An equivalent block method
for computing fatigue crack growth,” Int. J. Fatigue, vol. 30, 2008, pp.
1529-1542.
[48] I. V. Singh, B. K. Mishra, S. Bhattacharya y R. U. Patil, “The
numerical simulation of fatigue crack growth using extended finite
element method,” Int. J. Fatigue, vol. 36, 2012, pp. 109-119.
[49] H. Pathak, A. Singh y I. V. Singh, “Fatigue crack growth simulations
of 3-D problems using XFEM,” Int. J. Mech. Sc., vol. 76, 2013, pp.
112-131.
[50] N. Ranganathan, F. Chalon y S. Meo, “Some aspects of the energy
based approach to fatigue crack propagation,” Int. J. Fatigue, vol. 30,
2008, pp. 1921-1929.
[51] T. Belytschko y T. Black, “Elastic crack growth in finite elements with
minimal remeshing,” Int. J. Num. Meth. Eng., vol. 45, 1999, pp. 601620.
[52] N. Moës, J. Dolbow y T. Belytschko, “A finite element method for
crack growth without remeshing,” Int. J. Num. Meth. Eng., vol. 46,
1999, pp. 131-150.
[53] E. Giner, “Estimación del error de discretizacion en el cálculo del
factor de intensidad de tensiones mediante elementos finitos.” Tesis
de Ph.D., Dept. Ing. Mecánica y de Materiales, Univ. Politecnica
Valencia, Valencia, 2001.
[54] R. H. Gallagher, “A review of finite element techniques in fracture
mechanics,” in Proc. 1st Int. Conf. Num. Meth. Frac. Mech., 1978, pp.
1-25.
[55] S. K. Chan, I. S. Tuba y W. K. Wilson, “On the finite element method
in linear fracture mechanics,” Eng. Frac. Mech., vol. 2 (1), 1970, pp.
1-17.
[56] D. R. J. Owen y A. J. Fawkes, Enginering Fracture Mechanics:
Numerical Methods And Applications, Swansea: Pineridge Press,
1983.
Universidad Católica de Pereira
48
[57] I. S. Raju y J. C. Newman Jr., “Stress-intensity factors for a wide
range of semi-elliptical surface cracks in finite-thickness plates,” Eng.
Frac. Mech., vol. 11, 1979, pp. 817-829.
[58] J. R. Rice, “A Path independent integral and the approximate analysis
of strain concentration by notches and cracks,” J. App. Mech., vol. 35
(2), 1968, pp. 379-386.
[59] A. R. Maligno, S. Rajaratnam, S. B. Leen y E. J. Williams, “A threedimensional (3D) numerical study of fatigue crack growth using
remeshing techniques,” Eng. Fract. Mech., vol. 77, 2010, pp. 94-111.
[60] T. Rabczuk, S. Bordas y G. Zi, “On three-dimensional modelling of
crack growth using partition of unity methods,” Comp. & Struc., vol.
88, 2010, pp. 1391-1411.
[61] M. Nani Babu, C.K. Mukhopadhyay, G. Sasikala, B. Shashank Dutt,
S. Venugopal, S. K. Albert, A.K. Bhaduri y T. Jayakumar, “Fatigue
crack growth characterisation of RAFM steel using acoustic emission
technique,” Procedia Engineering, vol. 55, 2013, pp. 722-726.
[62] K-F. Nilsson, S. Ripplinger, A. Ruiz, M. Bruchhaussen, B. Fischer y
M. Gupta, “Analysis of crack morphologies and patterns from thermal
fatigue using X-ray tomography,” Procedia Materials Sciencie, vol. 3,
2014, pp. 2180-2186.
[63] R. de Borst, “Numerical aspects of cohesive-zone models,” Eng.
Fract. Mech., vol. 70, 2003, pp. 1743-1757.
[64] B. Yang, S. Mall y K. Ravi-Chandar, “A cohesive zone model
for fatigue crack growth in quasibrittle materials,” Int. J. Solids
Structures, vol. 38, 2001, pp. 3927-3944.
[65] A. Ural, V. R. Krishnan y K. D. Papoulia, “A cohesive zone model
for fatigue crack growth allowing for crack retardation,” Int. J. Solids
Structures, vol. 46, 2009, pp. 2453-2462, 2009.
[66] J. Planas, M. Elices, G. V. Guinea, F. J. Gómez, D. A. Cendón y I.
Arbilla, “Generalizations and specializations of cohesive crack
models,” Eng. Fract. Mech., vol. 70, 2003, pp. 1759-1776.
[67] P. Beaurepaire y G.I. Schueller, “Modeling of the variability of fatigue
crack growth using cohesive zone elements,” Eng. Fract. Mech., vol.
78, 2011, pp. 2399-2413.
[68] M. Elices, G. V. Guinea, J. Gómez y J. Planas, “The cohesive zone
model: advantages, limitations and challengers,” Eng. Fract. Mech.,
2002, vol. 69, pp. 137-163.
[69] M. Elices, J. Planas, J. Llorc y G. Guinea, “Métodos Numéricos en la
Fractura de Materiales Cohesivos ,” en Fractura Cohesiva. Madrid,
España: Universidad Politécnica de Madrid, 2001.
Ángel Andrés Andrade Morales nació en
Armenia, Quindío, el 21 de julio de 1989.
Se graduó como Ingeniero Mecánico en la
Universidad Tecnológica de Pereira, Pereira
(Colombia) en 2014. Obtuvo distinción
como mejor Icfes Saber pro en Ingeniería
Mecánica a nivel nacional. Fue Supervisor
Electromecánico en la empresa Busscar de
Colombia. Es Investigador activo en el área
de gestión energética, gestión de residuos,
ciencias térmicas y diseño. Es Estudiante
de segundo año de la Maestría en Ingeniería
Mecánica de la Universidad Tecnológica de
Pereira.
Wilfor
Alejandro
Mosquera
Velásquez nació en Pereira, Risaralda,
el 20 de agosto de 1989. Se graduó
como Ingeniero Mecánico en la Universidad
Tecnológica de Pereira, Pereira (Colombia)
en 2012. Fue estudiante distinguido por
obtener promedio de carrera de 4.2. Fue
Supervisor del Área de Troquelado y de
Inyección de Plásticos de Suzuki Motor de
Colombia S.A. Actualmente es Estudiante
de segundo año de la Maestría en Ingeniería
Mecánica de la Universidad Tecnológica de
Pereira.
Entre Ciencia e Ingeniería
Libardo Vicente Vanegas-Useche nació
en Pereira, Risaralda, el 20 de mayo de
1972. Se graduó como Ingeniero Mecánico
en la Universidad Tecnológica de Pereira,
Pereira (Colombia) en 1994. Obtuvo el
grado de M.Sc. en Advanced Manufacturing
Technology and Systems Management en
la University of Manchester, Manchester
(Reino Unido) en 1999. Obtuvo el grado
de Ph.D. en Mechanical Engineering en
la University of Surrey, Guildford (Reino
Unido) en 2008.
Fue Ingeniero de Fábrica en el Ingenio Central Sicarare S.A. y se
desempeñó como Docente de Laboratorio y Elaborador de Páginas Web
Educativas en la University of Surrey. Actualmente es Profesor Titular
en la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de
Pereira, La Julita, Pereira (Colombia). Fue Director del Primer Congreso
Internacional sobre Tecnologías Avanzadas de Mecatrónica, Diseño y
Manufactura AMDM en el año 2012. Ha publicado más de 50 trabajos
científicos. Sus intereses de investigación incluyen mecánica de fractura,
fatiga, diseño mecánico y modelado de elementos mecánicos mediante el
método de elementos finitos.
49
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 49 - 58
Preliminares de la adaptación del algoritmo
PA-VNE para la reasignación de redes virtuales
mapeadas y la selección entre diferentes tipos de
métricas1
Preliminaries in the adaptation of the algorithm
PA-VNE for the reallocation of mapped virtual
networks and the choice between different types
of metrics
N. Alzate, J.R. Amazonas y J.F. Botero
Recibido Junio 05 de 2015 – Aceptado Septiembre 23 de 2015
Resumen — La arquitectura actual de la internet no permite
la introducción de innovaciones debido, entre otras razones, a
la competencia entre proveedores de servicio. Como una posible
solución a este problema, se ha propuesto, la virtualización
de red. Para la implementación de esta tecnología se necesita
de un algoritmo que pueda ubicar las redes virtuales sobre los
Producto derivado del proyecto de investigación “Adaptación del
algoritmo NPA-VNE para la reasignación de redes virtuales mapeadas y
la selección entre diferentes tipos de métricas”. Presentado por el Grupo de
Investigación GIII, de la Facultad de Ciencias Básicas e Ingeniería, avalado
por el centro de innovación e investigación de la Universidad Católica de
Pereira y presentado como requisito de grado en la maestría en Computación
de la Universidad Tecnológica de Pereira.
N. Álzate, docente de la Facultad de Ciencias Básicas e Ingeniería
de la universidad Católica de Pereira, Pereira (Colombia); email: nestor.
[email protected].
J.R. Amazonas, docente del Departamento de Telecomunicaciones e
Ingeniería de Control en EPUSP, Sao Paulo (Brasil); email: [email protected].
usp.br
J.F. Botero, Docente en el Departamento de Ingeniería Electrónica
y de Telecomunicaciones de la Universidad de Antioquia, Medellín
(Colombia); email: [email protected]
1
recursos de la red física, de una forma óptima, según las métricas
a considerar. Este artículo presenta los avances preliminares de
la investigación acerca de la optimización del algoritmo PA-VNE
y su implementación en una red definida por software.
Palabras clave — Algebra de Caminos, backtracking,
mapeo de redes virtuales, redes definidas por software, relación
competitiva, virtualización de redes.
Abstract — the current architecture of the internet does
not allow the introduction of innovations, due to, among other
reasons, competition between service providers. Network
virtualization has been proposed as a possible solution to
this problem. For the implementation of this technology, an
algorithm that can locate the virtual networks on the physical
network resources in an optimal way, according to the metrics to
consider, is required. This article presents preliminary research
advances about the optimization of the algorithm PA-VNE, and
its implementation through a software defined network.
Descriptors — Path Algebra, backtracking, virtual network
mapping, software defined network, competitive ratio, network
virtualization.
Universidad Católica de Pereira
50
L
I. Introducción
a Internet ha cambiado la forma de comunicarnos en todos
nuestros ámbitos. Desde su creación ha evolucionado
incrementalmente, a través de grandes inversiones en
diferentes tecnologías, que dan soporte a diversos servicios
distribuidos; en consecuencia, la arquitectura de la internet
es robusta y se ha osificado [1] dada la dificultad de concertar
cambios globales entre los operadores y partes interesadas
en la misma.
“Como resultado, las alteraciones en la arquitectura de
la Internet se han limitado a simples actualizaciones y las
implementaciones de nuevas tecnologías de red adicionales
se han vuelto cada vez más difíciles” [2]. Por ejemplo:
IPv6, servicios integrados (IntServ), servicios diferenciados
(DiffServ), IP multicast y protocolos de enrutamiento
seguros.
La virtualización de redes es una propuesta de arquitectura
donde múltiples redes heterogéneas cohabitan sobre una
misma red sustrato. Esta característica la hace ideal para
acelerar la innovación de servicios; específicamente, el
modelo de negocios propuesto por la virtualización de red
permite superar la actual osificación de la red misma [3-5].
Un problema fundamental para la virtualización de redes
consiste en asignar cada una de las peticiones de redes
virtuales (VNR) óptimamente sobre los recursos de la red
sustrato (SN). Este problema es formalmente conocido
mapeo o incrustación de redes virtuales (VNE), por tal
motivo los algoritmos que se diseñan para este tipo de
problemas son conocidos como algoritmos VNE [6-8].
Dado el nuevo de modelo de negocios propuesto para
Internet con la intervención de la virtualización de redes
[9, 10], un factor para poder obtener la mayor cantidad de
ganancia, es lograr la mayor cantidad de asignaciones de las
VNR sobre la red sustrato. Con este fin se está investigando el
desarrollo de algoritmos que estén en capacidad de reasignar
recursos de la SN cuando las VNR sean rechazadas, ya sea
porque los recursos están siendo utilizados al máximo o
porque los recursos de las SN están fragmentados.
Una limitante en las investigaciones acerca de los
algoritmos VNE, es la dificultad para analizar diferentes
criterios de optimización simultáneamente, debido a la
cantidad y a la linealidad o no de las variables llamadas
métricas.
Por otro lado, una nueva arquitectura de red conocida
como Redes Definas por Software (SDN) se ha ganado el
interés de los investigadores y de la industria. Este nuevo
escenario es ideal para la virtualización de redes debido
al desacople entre los planos de control y de datos [11],
permitiendo la flexibilidad y programabilidad necesarias
para la implementación de la virtualización de redes.
Entre Ciencia e Ingeniería
Por estas razones, el propósito de este estudio es abordar
los problemas abiertos de la virtualización de redes
anteriormente mencionados mediante la ejecución de los
siguientes objetivos:
• Diseñar un algoritmo con el fin de reasignar redes virtuales
mapeadas cuando una VNR sea rechazada, usando la
técnica de backtracking, y adaptarlo al algoritmo Paths
Algebra Virtual Network Embedding (PA-VNE) [12].
• Construir un algoritmo bajo el concepto de relación
competitiva que permita evaluar la fragmentación de los
recursos de la red sustrato y su adaptación al PA-VNE.
• Integrar un mecanismo de selección de múltiples métricas
que serán evaluadas usando el álgebra de caminos en el
PA-VNE.
• Implementar la adaptación completa del algoritmo PAVNE en una red definida por software.
Las técnicas propuestas con las que se pretende afrontar
el problema VNE han sido planteadas o investigadas con
resultados favorables. Tal es el caso de la recursividad de
backtracking en [13-17], el álgebra de caminos en [12,
18], la relación competitiva [19-23], así como en [24-32]
dónde queda evidenciada la conveniencia de utilizar las
redes definidas por software para la implementación de la
virtualización de redes. Lo que se proyecta hacer con estas
técnicas implementadas en el problema VNE, es mejorar la
tasa de aceptación del número de redes virtuales mapeadas
en la red sustrato, al invocar un algoritmo de marcha atrás
cuando una VNR sea rechazada o cuando la relación
competitiva indique cierto grado de fragmentación.
Este artículo pretende mostrar el acercamiento conceptual
de los algoritmos y tecnologías, así como la revisión de
antecedentes, ver Tabla I, que fundamentan el proceso de
investigación de la tesis de maestría del primer autor, el
resto del artículo está organizado de la siguiente manera: la
sección 2 hace un análisis del problema VNE. En la sección
3 se explora el álgebra de caminos. La sección 4 pretende
explicar las características del algoritmo PA-VNE. La
sección 5 estudia la técnica de backtracking. En la sección
6, se realiza un acercamiento teórico acerca de la relación
competitiva. La sección 7 muestra los conceptos de las SDN.
En la sección 8, se presenta una breve discusión de cómo
se han abordado las investigaciones acerca del VNE. La
sección 9 presenta los principales desafíos de investigación
en el tema de VNE y SDN. La sección 10 presenta las
conclusiones de artículo.
51
tabla i. trabajos seleccionados para revisión.
Fig 1. Arquitectura basada en virtualización de red [3].
Cuando se modela el proceso, se deben considerar diferentes
tipos de escenarios, además de la acción del mapeo; a
continuación se mencionan algunos de ellos:
• El conocimiento del arribo con o sin antelación de las
VNR.
• La utilización de los recursos de nodos y enlaces ocultos
en el mapeo.
• La posibilidad de sufrir modificaciones en la topología
de la SN mientras se realiza el mapeo.
• Considerar la necesidad de planes de respaldo ante
cambios en la topología de la SN.
• El grado de fragmentación de los recursos de la SN.
• Determinar si la decisión del mapeo está centralizada o
distribuida.
II. Mapeo de Redes Virtuales
La virtualización de redes juega un papel importante al
permitir que múltiples arquitecturas de redes heterogéneas
cohabiten en una SN [33-36], siendo esta una propuesta
llamada a liberar la osificación de internet. El principal
desafío de la virtualización de redes reside en garantizar
el uso óptimo de los recursos de la red sustrato, cuando se
mapean en ella las solicitudes de las redes virtuales [3740]. Los algoritmos que abordan este tipo de problema se
conocen como algoritmos VNE.
El proceso del mapeo se debe llevar a cabo tanto en los
nodos, como en los enlaces de la SN, estos mapeos se
conocen como Virtual Node Mapping (VNoM) y Virtual
Link Mapping (VLiM), que resuelven el problema de asignar
enlaces virtuales a caminos en la red sustrato que conecten
a los nodos sustrato, a los que se asignan los nodos virtuales
extremos del enlace virtual, respectivamente. Este proceso
se ilustra en la Fig 1. La realización de estos mapeos se
puede llevar a cabo en etapas separadas [41, 42] o de manera
coordinada [43, 44].
La virtualización de red ha llevado a pensar un nuevo modelo
de negocios como se describe en [6]: ¨Arquitecturas futuras
de la internet estarán basadas en un modelo de negocios de
infraestructura como un servicio (IaaS) que separa el rol
de los Proveedores de Servicios de Internet (ISPs) en dos
nuevos roles: el Proveedor de Infraestructura (InP) quien
despliega y mantiene los equipos de red y el Proveedor de
Servicios (SP), a cargo del despliegue de protocolos de red
y de ofrecer servicios extremo a extremo. Incluso, estos roles
se pueden definir en tres actores principales, (ver Fig 2):
El Proveedor de Redes Virtuales (VNP), que ensambla los
recursos virtuales de uno o más InPs, el Operador de Redes
Virtuales (VNO) que instala, administra y opera las redes
virtuales (VN) de acuerdo con las necesidades del SP, y el
SP que está libre de la administración y se concentra en los
negocios mediante el uso de las VN para ofrecer servicios
personalizados”.
Universidad Católica de Pereira
52
Existe una nueva propuesta denominada New Paths
Algebra Virtual Network Embedding (NPA-VNE), este es un
algoritmo desarrollado por Xavier Hesselbach, José Roberto
Amazonas, Santi Villanueva y Juan Felipe Botero que está
en proceso de publicación. Este algoritmo usa el Algebra
de Caminos para encontrar una solución al VLiM y VNoM
coordinadamente, a diferencia del funcionamiento de la
propuesta anterior.
Fig 2. Future Internet Business model [6].
Por tal razón los estudios encaminados a buscar una
viabilidad económica y tecnológica para la implementación
de redes virtuales son pertinentes.
III. Algebra de Caminos
Un factor importante para la investigación de los algoritmos
VNE son las métricas. Se pueden considerar múltiples
métricas que apuntan a objetivos de optimización diferentes.
Entre los objetivos de optimizaciones podemos nombrar los
siguientes:
Se puede introducir el concepto de álgebra de camino a
través de un ejemplo, cuando se considera que: “una red es
representada por un grafo dirigido G=(V,A), donde V es el
conjunto de vértices y A es un conjunto de aristas. Considere
el camino simple representado en la Fig. 3. El conjunto de
vértices está dado por V={1,2,3,4} y el conjunto de aristas
está dado por A={a,b,c}. Los nodos de origen y destino son
(s,d)=(1,4). Este camino se puede representar ya sea como
una sucesión de vértices p1, 4 o una como una sucesión de
aristas p a ,c .
Cada arista en este ejemplo está caracterizado por una tripleta
(m1(x), m2(x). f[m1(x), m2(x)], donde m1(x) y m2(x) son los
valores de las métricas m1 y m2 en las aristas x€A;
f[m1(x), m2(x)] es una función de combinación de métricas
aplicada a m1 y m2.
•Calidad de servicio, donde sus métricas son retrasos,
utilización, nivel de estrés, rendimiento, longitud del
camino y jitter.
• Optimización económica, con métricas de costos, ingresos,
relación costo/ingreso y relación de admitidos.
•Poder de supervivencia, siendo sus métricas asociadas,
el número de respaldos, disponibilidad y número de
migraciones.
• Recursos ambientales con su métrica de eficiencia
energética.
Debido al gran número y diversidad de métricas que pueden
ser utilizadas en un algoritmo de mapeo de redes virtuales,
se ha usado un conocido marco matemático que permite
resolver problemas de múltiples restricciones, incluyendo
métricas lineales o no lineales e incluso la combinación de
ambas. El nombre de este marco matemático es algebra de
caminos. Los conceptos usados en [45] sientan las bases
matemáticas del algebra de caminos y muestran el desarrollo
de una herramienta para la ingeniería de tráfico. En [12]
utilizan este marco para solucionar el VLiM al encontrar
todos los caminos posibles en la SN dando como resultados
mejores y más flexibles incrustamientos.
IV. PA-VNE
El Paths Algebra Virtual Network Embedding es una
propuesta que utiliza el marco matemático llamado algebra
de caminos para la solucionar la etapa VLiM, su flexibilidad
y mejor respuesta a las incrustaciones en la red sustrato, son
debido a este marco matemático.
Entre Ciencia e Ingeniería
Fig 3. (a) Ejemplo de un camino simple. (b) Ejemplo de dos
caminos que se ordenaron.
En general, el álgebra de caminos usa M como el conjunto
de métricas m de enrutamiento y F como la función de
combinaciones de métricas k.
El conjunto de métricas combinadas de todas las aristas
está dado por
Una síntesis S[•] es un conjunto de operaciones binarias
aplicadas sobre los valores de las métricas combinadas de
enlaces a lo largo de un camino, para obtener un resultado
que caracteriza este camino, tanto como a las restricciones
impuestas por la combinación de métricas le conciernen.
Hasta aquí, la síntesis está restringida por el siguiente
conjunto: {add(), mult(), max(), min()}.
53
Si el algoritmo de enrutamiento es de una única restricción,
solo un valor es obtenido como la síntesis resultante y es
llamada la palabra de peso. Si el algoritmo de enrutamiento
es de múltiples restricciones, con k restricciones, entonces k
valores son obtenidos. En este ejemplo, . La palabra de peso
tiene tantas letras como el número de caminos de las aristas.
La primera letra corresponde al valor resultante de la síntesis
aplicada a todo el camino; la segunda letra corresponde al
valor resultante de la síntesis aplicada al subcamino obtenido
por deshacer la última arista; la última letra corresponde al
valor resultante de la síntesis aplicada al subcamino hecho
de solo la primera arista. Cualquier número de letras pueden
se retenidas como el resultado de la síntesis y esto es llamado
una abreviación: representa una abreviación de j-letras;
representa ninguna abreviación, por ejemplo, cuando todas
las letras son tomadas en cuenta.
Ordenando los caminos.
Considere la red representada en la Fig. 3b donde dos
caminos conectan el nodo origen 1 al nodo destino 4. Estos
caminos son α = (1,2,3,4) = (a,b,c) y β = (1,5,4) = (d,e). Cada
camino de arista es caracterizada por una tripleta , (m1(x),
m2(x). f[m1(x), m2(x)] donde f[m1(x), m2(x)] = m1(x)xm2(x).
La síntesis que se utilizada en este ejemplo está dada por .
S[•]=[min( ) max ( ) add ( )]
tabla ii
. resultados de la síntesis de la red dada en fig. 3b
Diferentes síntesis también tienen diferentes prioridades.
En el ejemplo, las prioridades S1 , S 2 y S 3 van desde la más
alta a la más baja.
La Tabla III resume los resultados obtenidos para los tres
diferentes criterios de orden. Es importante darse cuenta
que las letras de la síntesis son examinadas desde las más
alta prioridad a la síntesis de menor prioridad. Cuando
los caminos son considerados equivalentes, entonces
examinaremos ya sea la siguiente letra de la misma síntesis
o nos desplazamos a la próxima síntesis. Esto se determina
por la abreviatura adoptada” [12].
V. Backtracking
Entre las técnicas de diseño de algoritmos el método de
backtracking o de marcha atrás, es ampliamente utilizado
para los problemas de optimización, cuando hay que
satisfacer varias restricciones [46-48]. Este método es similar
a la búsqueda en profundidad de un grafo y puede adaptarse
para encontrar diferentes soluciones: bien sea la primera en
encontrarse, todas las soluciones o la mejor entre todas las
encontradas. En su ejecución hay dos posibles estados, el
de éxito o fracaso. El estado de éxito se logra cuando se ha
encontrado el tipo de solución deseada y el estado de fracaso
se da cuando la solución parcial no puede ser completada,
aquí el algoritmo da vuelta atrás en su recorrido eliminando
los nodos que se hubieran agregado en cada etapa a partir de
ese nodo.
Sin embargo, se deben usar técnicas más ingeniosas
para mejorar el rendimiento de este tipo de algoritmos, si
se quiere enfrentar problemas altamente combinatorios,
como el problema VNE. Los trabajos encontrados bajo esta
perspectiva se relacionan a continuación:
tabla iii.
Ordenando caminos de la red dada en la fig. 3b.
Los resultados de la síntesis se muestran en la Tabla II.
Un camino α es peor o menos optimizado que el camino
β, si, S[a]≤ML S[b] donde ≤MLes sinónimo de orden léxico
multidimensional. En el ejemplo ≤ML= {≥, ≤, ≥}que se
traduce por el siguiente orden de relaciones:
Yuan, et al. [13] exponen un nuevo enfoque para optimizar
los recursos de la red sustrato. Su algoritmo denominado
WD-VNE utiliza ventanas deslizantes en la cola de
solicitudes para el mapeo de los nodos, basado en el grado
de conectividad y la capacidad total. El algoritmo utiliza
la técnica de backtracking para encontrar las soluciones.
Las diferentes pruebas muestran mejor desempeño que la
mayoría de los algoritmos evaluados.
Fajjari, et al. [14] proponen una estrategia de asignación
de recursos para las redes virtuales que mejora complejidad
y eficiencia con respecto a propuestas anteriores. Se busca
específicamente, usar el ancho de banda no utilizado en
los mapeos de los enlaces. Para esto utilizan un algoritmo
backtracking que genera la topología de la red virtual total,
esta se divide en topologías de estrella con el fin dividir el
problema y hacer más fácil la búsqueda de recursos libres.
Las simulaciones muestran que la estrategia de asignación es
más eficiente que las propuestas encontradas en la literatura.
Fajjari, et al. [15] enfrentan el problema de la asignación
eficiente de recursos en el backbone de la infraestructura de
una red en la nube. Con esto se pretende dar cumplimiento a
Universidad Católica de Pereira
54
los requerimientos de los usuarios mientras se maximizan los
ingresos del proveedor de servicios. Su estrategia llamada
Backtracking-VNE garantiza tanto el grado de ocupación
de la red como la asignación de recursos a las peticiones de
redes virtuales.
Di, et al. [16] encaran el problema de la asignación de
recursos en la red sustrato por las solicitudes de las redes
virtuales. Crean un algoritmo en línea de mapeo de redes
virtuales llamado OVNM, que se basa en la técnica de
backtracking para mejorar la probabilidad de mapeos
exitosos. Las pruebas en simulaciones develan que el
algoritmo tiene un aceptable tiempo de ejecución y una
mejora en la probabilidad del bloqueo de la red sustrato, lo
que implica más incrustaciones de redes virtuales.
Lischka and Karl [17] desarrollaron un algoritmo usando
una técnica de la teoría de grafos llamada detección de
grafos isomorfos a través de un algoritmo backtracking,
el cual llamaron vnmFlib. Este algoritmo realiza el mapeo
de nodos y enlaces en una sola etapa teniendo en cuenta
múltiples métricas y llegadas de solicitudes dinámicas en
línea. Se evaluó el algoritmo con respecto a otros, mostrando
mejores mapeos en menos tiempo, demostrando también
mejor comportamiento en redes de grandes escalas.
VI. Relación competitiva
En la ciencia de la computación hay dos tipos de
algoritmos: los fuera de línea y en línea. Los algoritmos fuera
de línea tienen conocimiento de todos los datos que van a
entrar al sistema, en cambio los algoritmos en línea toman
decisiones a medida que van llegando los datos sin previo
conocimiento de los mismos; los algoritmos en línea tratan
con problemas que son difíciles de resolver debido a dos
razones: o bien porque el espacio de búsqueda es demasiado
grande y complejo para buscar de manera eficiente una
solución óptima, o porque el espacio de búsqueda no es
completamente conocido y las entradas para el problema
se describen gradualmente a lo largo de la ejecución de
algoritmo [49], por tal motivo no se conoce si la solución
adoptada será la más óptima según las entradas futuras.
El poder evaluar el desempeño entre un algoritmo en línea
y uno fuera de línea, es la idea base del concepto conocido
como relación competitiva. Este concepto muestra su utilidad
en el modelo de negocio IaaS, si deseamos determinar cuál
algoritmo realiza más incrustaciones de VNR sobre la SN.
Se encontró que son pocos los desarrollos de algoritmos
bajo ese concepto para el problema VNE, los siguientes,
son algunos casos donde este tipo de algoritmo fue tenido
en cuenta:
Even, et al. [19] realizan un algoritmo en línea llamado
GVON, este algoritmo lo describe como genérico debido
a que soporta VNR de múltiples modelos de tráfico y de
enrutamiento, implicando que los recursos de la red pueden
ser compartidos entre diferentes solicitudes de diferentes
tipos. Al ser un algoritmo en línea utilizaron el concepto
Entre Ciencia e Ingeniería
de relación competitiva para probar que su algoritmo no
presenta un gran decremento del desempeño en contraste
con un algoritmo fuera de línea.
Xing, et al. [20] construyen un algoritmo con base en el
concepto de conectividad de la teoría de grafos, con el fin
de disminuir la fragmentación de la red sustrato. Para ello
diseñaron una métrica llamada RFD para determinar la
fragmentación de recursos. Sus resultados muestran una
mayor cantidad de asignación de redes virtuales en relación
con otros algoritmos VNE.
Wanis, et al. [21] entregan dos desarrollos para mejorar
la fragmentación y reasignación de los recursos de la red
física. El primer aporte es un método para ubicar y reasignar
redes virtuales que generan fragmentación y el segundo es
una técnica de migración en línea de las redes virtuales,
afectando mínimamente los tiempos de interrupción por
estos procesos.
Jmila, et al. [22] abordan el problema de la fragmentación
en los nodos de la red sustrato y el costo que involucran las
reasignaciones disparadas. Su trabajo es comparado con el
algoritmo DVNMA NS y los resultados muestran notables
mejorías en la tasas de aceptación de solicitudes de redes
virtuales así como una reducción en los tiempos de ejecución
del algoritmo.
Phuong Nga, et al. [23] abordan la migración de
VN en algoritmos en línea así como los tiempos de la
reconfiguración. Proponen un mecanismo reactivo de
reconfiguración. Presentan sus resultados comparando su
algoritmo con otros que no usan técnicas de reconfiguración.
VII. Redes definidas por software
Por otra parte, las redes definidas por software son una
arquitectura de red emergente que maneja los planos de
control y de envío de datos por separado. “SDN es un
nuevo enfoque para la programabilidad de la red, que se
refiere a la capacidad de controlar, modificar y administrar
el comportamiento de la red de forma dinámica, a través de
software, vía interfaces abiertas, a diferencia de depender
de cajas cerradas y de las interfaces definidas por los
propietarios” [50]. Estas características ayudarán al avance
en investigación e implementación de nuevos protocolos y
técnicas, así como en la mejor administración de las redes
de datos.
En las redes definidas por software se pueden aislar redes
virtuales sobre una misma red sustrato, creando particiones,
donde cada una de ellas tiene control de reenvió por
separado, esto convierte a las SDN en un escenario ideal
para la virtualización de redes [51-56].
Openflow es un estándar abierto para las SDN, que está
permitiendo llevarlas a su implementación en el sector
de las telecomunicaciones, su auge e importancia se ven
reflejados en los centros de pruebas e investigaciones
abiertas a la comunidad científica [57], tanto en Europa con
55
OFELIA (OpenFlow in Europe: Linking Infrastructure and
Applications) [58], y en Estados Unidos con GENI (Global
Environment for Network Innovations) [59], así como su
implementación en los equipos de las grandes compañías
de networking [60]. Por los motivos anteriores se propone
implementar la adaptación del algoritmo PA-VNE en las
SDN con el fin de verificar su funcionalidad en un ambiente
ya sea real o emulado.
En la literatura se encontraron diversos trabajos con
propuestas similares:
Papagianni, et al. [29] estudian el comportamiento de
diferentes algoritmos de mapeo de topologías virtuales en
ambientes de computación en la nube sobre redes definidas
por software. Para obtener el algoritmo adaptaron uno ya
propuesto con los requerimientos de Openflow. Concluyen
que su algoritmo mejoró la eficiencia de los valores viables
de las cabeceras de las capas 1-4.
contingencia. Específicamente hablando de la integración
de las técnicas propuestas, además de lo descrito en las
secciones anteriores, se puede agregar que una adecuada
selección de una técnica de backtracking ayudará a mejorar
la taza de aceptación, debido a que esta técnica permitirá
redistribuir las cargas en la SN para aceptar más VN, una
síntesis de estos hallazgos se muestra en la Tabla IV. Lo que
se hará específicamente, es analizar en qué momentos se
aplicará, dado su alto consumo computacional y hasta donde
se haría el retroceso para realizar el remapeo de las VNR. Con
respecto a la relación competitiva, se está analizando como
determinar el grado de fragmentación y consecuentemente
encontrar un porcentaje óptimo que sirva como una medida
para realizar remapeos con backtracking.
tabla iv. clasificación de trabajos según los escenarios vne.
Demirci and Ammar [30] plantean una técnica para el
mapeo de redes virtuales en redes definidas por software
realizando simultáneamente el mapeo de los nodos-enlaces
y la ubicación del controlador. Se trazaron dos objetivos para
su técnica: el primero es mantener un balance de las cargas
en la red sustrato y el segundo minimizar los retardos entre el
controlador y los switches. Se basaron en la herramienta de
emulación Mininet para evaluar su algoritmo y el FlowVisor
[61] como plataforma para la virtualización. Sus resultados
muestran que no fue posible optimizar los dos objetivos
al mismo tiempo, aunque si sólo se centraban en un único
objetivo, el desempeño sí mejoraba.
Drutskoy, et al. [31] desarrollan una solución para la
virtualización en redes definidas por software llamada
FlowN. Diseñaron una arquitectura utilizando dos enfoques
como son las tecnologías de base de datos para el mapeo
de redes virtuales sobre la red sustrato y un controlador
compartido para cada red virtual. El desarrollo concluye con
una herramienta para la capa de virtualización de red que
mejora la latencia en comparación con FlowVisor.
Riggio, et al. [32] examinan el problema del mapeo de
topologías virtuales sobre las redes definidas por software.
El trabajo entrega la evaluación comparativa entre los
algoritmos VNE heurísticos en topologías regulares y
aleatorias, además crea una técnica nombrada VT-Planner.
Los resultados de las mediciones indican que le VT-Planner
logra un mejor desempeño y una menor complejidad
comparado con los VNE heurísticos evaluados.
VIII. Discusión
El problema conocido como VNE ha sido estudiado
ampliamente, pero la revisión bibliográfica muestra que la
mayoría de los algoritmos propuestos se basan en soluciones
que son centralizadas en cuanto a la entidad que toma las
decisiones del incrustamiento; igualmente poco se ha tratado
con tiempos finitos para las VNR, que liberarían recursos en
la SN; además faltan más propuestas que tengan en cuenta
una solución alternativa como respaldo en caso de alguna
IX. Desafios de investigación
Se encontraron varios caminos para posibles investigaciones
relacionadas con el VNE, los cuales son presentados a
continuación. Un tema remanente son las investigaciones
que consideren la solución al problema VNE de una forma
distribuida [6]. Debido a la complejidad computacional de
las soluciones, se plantea la necesidad de repartir los recursos
necesarios para alcanzar la solución a través de varios nodos.
Otro tema es el estudio de la seguridad cuando coexisten
diferentes VN en una misma infraestructura [62], esto es
debido a que, satisfacer los diferentes requisitos de seguridad
de cada uno de los actores involucrados, implica la creación
de algoritmos VNE que eviten contradicciones entre esos
requisitos, además de considerar los riesgos de seguridad en
la coexistencia entre diferentes VN cuando se realicen los
mapeos. También se proponen estudios acerca de algoritmos
que optimicen la eficiencia energética en las SN [63, 64],
en gran medida, pensando en las implementaciones de estos
algoritmos en centros de datos, donde el consumo de energía
Universidad Católica de Pereira
56
es muy elevado. Otro desafío se centra en la incursión de las
redes ópticas tanto en las SDN como en el VNE [65, 66],
entre los retos específicos de este tema, se centra en cómo
virtualizar, si existen o no dispositivos electrónicos en los
nodos y cómo aprovechar la flexibilidad de las SDN en
el aprovisionamiento de ancho de banda dinámico en las
redes de área global. Se evidencio también la necesidad de
investigación sobre el VNE en centro de datos [67] con el
fin de maximizar la capacidad computacional en diferentes
tipos de servicios. Nuevos desafíos se han encontrado en
una iniciativa que ha evolucionado de la virtualización
de redes y que ha sido propuesto desde la industria, dicha
iniciativa se denomina Virtualización de Funciones de Red
NFV [68, 69], esta iniciativa quiere superar la dependencia
que tienen las redes de datos de dispositivos de hardware
especializados para funciones específicas, lo que incrementa
los costos de inversión y operación de los operadores de la
red. Como las NFV evolucionan a partir de las VN, varios de
sus desafíos son heredados, encontrando algunas similitudes
en los problemas de investigación, es por esta razón que se
presenta, en esta sección, este tema. Entre sus desafíos se
encuentran la ubicación y asignación de recursos en la SN,
la seguridad para las aplicaciones que serán albergadas en un
mismo nodo, estudios que encuentre la mejor forma de hacer
la combinación de las SDN y las NFV, así como métodos de
sincronización entre las diferentes funciones de red.
Particularmente, no se encontró un algoritmo VNE que
combine el mapeo de nodos y enlaces coordinadamente,
tomando decisiones con el álgebra de caminos, además que
utilice la técnica de backtracking y relación competitiva para
mejorar la cantidad de VNR aceptadas en la SN.
X. Conclusiones
La revisión conceptual de los temas y de su literatura asociada
con los objetivos de este trabajo, evidencia que existen una
extensa base de investigación acerca de la virtualización de
redes y su problema asociado el VNE, pero aún se requieren
más investigaciones que tengan en cuenta la optimización
de esta tecnología pensando en el modelo de negocios IaaS.
Esto se ve reflejado por los escasos trabajos que intentan
resolver problemas que se presentarían en ambientes
no simulados, tales como, llegadas de VNR sin previo
conocimiento, reconfiguración de las VN en la red sustrato
para una mayor cantidad de incrustaciones según prioridades
o calidad de servicios, así como su funcionamiento, en los
que sé evidencio, sería su ambiente natural, las SDN.
Referencias
[1] J. Turner, “Virtualizing the Net - a strategy for enabling network
innovation [Keynote 2],” in High Performance Interconnects, 2004.
Proceedings. 12th Annual IEEE Symposium on, 2004, pp. 2-2.
[2] N. M. M. K. Chowdhury and R. Boutaba, “A survey of network
virtualization,” Computer Networks, vol. 54, pp. 862-876, 4/8/ 2010.
[3] N. M. M. K. Chowdhury and R. Boutaba, “Network virtualization:
state of the art and research challenges,” Communications Magazine,
IEEE, vol. 47, pp. 20-26, 2009.
[4] O. Braham, A. Amamou, and G. Pujolle, “Virtual Network
Entre Ciencia e Ingeniería
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
Urbanization,” in Communications: Wireless in Developing Countries
and Networks of the Future. vol. 327, A. Pont, G. Pujolle, and S. V.
Raghavan, Eds., ed: Springer Berlin Heidelberg, 2010, pp. 182-193.
Z. Sheng, Q. Zhuzhong, W. Jie, L. Sanglu, and L. Epstein, “Virtual
Network Embedding with Opportunistic Resource Sharing,” Parallel
and Distributed Systems, IEEE Transactions on, vol. 25, pp. 816-827,
2014.
A. Fischer, J. F. Botero, M. Till Beck, H. de Meer, and X. Hesselbach,
“Virtual Network Embedding: A Survey,” Communications Surveys
& Tutorials, IEEE, vol. 15, pp. 1888-1906, 2013.
Z. Zhang, S. Su, Y. Lin, X. Cheng, K. Shuang, and P. Xu, “Adaptive
multi-objective artificial immune system based virtual network
embedding,” Journal of Network and Computer Applications, vol.
53, pp. 140-155, 7// 2015.
X. Guan, B.-Y. Choi, and S. Song, “Energy efficient virtual network
embedding for green data centers using data center topology and
future migration,” Computer Communications, 2015.
G. Schaffrath, C. Werle, P. Papadimitriou, A. Feldmann, R. Bless, A.
Greenhalgh, et al., “Network virtualization architecture: proposal
and initial prototype,” presented at the Proceedings of the 1st ACM
workshop on Virtualized infrastructure systems and architectures,
Barcelona, Spain, 2009.
H. Yoonseon, L. Jian, C. Jae-Yoon, Y. Jae-Hyoung, and J. W. K. Hong,
“SAVE: Energy-aware Virtual Data Center embedding and Traffic
Engineering using SDN,” in Network Softwarization (NetSoft), 2015
1st IEEE Conference on, 2015, pp. 1-9.
M. Jammal, T. Singh, A. Shami, R. Asal, and Y. Li, “Software defined
networking: State of the art and research challenges,” Computer
Networks, vol. 72, pp. 74-98, 10/29/ 2014.
J. F. Botero, M. Molina, X. Hesselbach-Serra, and J. R. Amazonas,
“A novel paths algebra-based strategy to flexibly solve the link
mapping stage of VNE problems,” Journal of Network and Computer
Applications, vol. 36, pp. 1735-1752, 11// 2013.
Y. Yuan, C. Wang, N. Zhu, C. Wan, and C. Wang, “Virtual Network
Embedding Algorithm Based Connective Degree and Comprehensive
Capacity,” in Intelligent Computing Theories. vol. 7995, D.-S. Huang,
V. Bevilacqua, J. Figueroa, and P. Premaratne, Eds., ed: Springer
Berlin Heidelberg, 2013, pp. 250-258.
I. Fajjari, N. Aitsaadi, G. Pujolle, and H. Zimmermann, “AdaptiveVNE: A flexible resource allocation for virtual network embedding
algorithm,” in Global Communications Conference (GLOBECOM),
2012 IEEE, 2012, pp. 2640-2646.
I. Fajjari, N. Aitsaadi, G. Pujolle, and H. Zimmermann, “An optimised
dynamic resource allocation algorithm for Cloud’s backbone
network,” in Local Computer Networks (LCN), 2012 IEEE 37th
Conference on, 2012, pp. 252-255.
H. Di, H. Yu, V. Anand, L. Li, G. Sun, and B. Dong, “Efficient Online
Virtual Network Mapping Using Resource Evaluation,” Journal of
Network and Systems Management, vol. 20, pp. 468-488, 2012/12/01
2012.
J. Lischka and H. Karl, “A virtual network mapping algorithm based
on subgraph isomorphism detection,” presented at the Proceedings
of the 1st ACM workshop on Virtualized infrastructure systems and
architectures, Barcelona, Spain, 2009.
S. Escriche Fernández, “Network virtualization and traffic engineering
in Software-Defined Networks,” Master thesis, Universitat
Politècnica de Catalunya, 2014.
G. Even, M. Medina, G. Schaffrath, and S. Schmid, “Competitive
and deterministic embeddings of virtual networks,” Theoretical
Computer Science, vol. 496, pp. 184-194, 7/22/ 2013.
L. Xing, L. Hancheng, Z. Wei, and H. Peilin, “VNE-RFD: Virtual
network embedding with resource fragmentation consideration,” in
Global Communications Conference (GLOBECOM), 2014 IEEE,
2014, pp. 1842-1847.
B. Wanis, N. Samaan, and A. Karmouch, “Substrate network house
cleaning via live virtual network migration,” in Communications
(ICC), 2013 IEEE International Conference on, 2013, pp. 2256-2261.
H. Jmila, I. Houidi, and D. Zeghlache, “RSforEVN: Node reallocation
algorithm for virtual networks adaptation,” in Computers and
Communication (ISCC), 2014 IEEE Symposium on, 2014, pp. 1-7.
T. Phuong Nga, L. Casucci, and A. Timm-Giel, “Optimal mapping
of virtual networks considering reactive reconfiguration,” in Cloud
57
[24]
[25]
[26]
[27]
[28]
[29]
[30]
[31]
[32]
[33]
[34]
[35]
[36]
[37]
[38]
[39]
[40]
[41]
[42]
[43]
[44]
Networking (CLOUDNET), 2012 IEEE 1st International Conference
on, 2012, pp. 35-40.
J. F. Botero, “Study, evaluation and contributions to new algorithms
for the embedding problem in a network virtualization environment,”
Thesis Doctoral, Universitat Politècnica de Catalunya, 2013.
N. Feamster, J. Rexford, and E. Zegura, “The road to SDN: an
intellectual history of programmable networks,” SIGCOMM Comput.
Commun. Rev., vol. 44, pp. 87-98, 2014.
M. Casado, N. Foster, and A. Guha, “Abstractions for softwaredefined networks,” Commun. ACM, vol. 57, pp. 86-95, 2014.
Y. Jarraya, T. Madi, and M. Debbabi, “A Survey and a Layered
Taxonomy of Software-Defined Networking,” Communications
Surveys & Tutorials, IEEE, vol. 16, pp. 1955-1980, 2014.
R. Guerzoni, R. Trivisonno, I. Vaishnavi, Z. Despotovic, A. Hecker,
S. Beker, et al., “A novel approach to virtual networks embedding
for SDN management and orchestration,” in Network Operations and
Management Symposium (NOMS), 2014 IEEE, 2014, pp. 1-7.
C. Papagianni, G. Androulidakis, and S. Papavassiliou, “Virtual
Topology Mapping in SDN-Enabled Clouds,” in Network Cloud
Computing and Applications (NCCA), 2014 IEEE 3rd Symposium on,
2014, pp. 62-67.
M. Demirci and M. Ammar, “Design and analysis of techniques for
mapping virtual networks to software-defined network substrates,”
Computer Communications, vol. 45, pp. 1-10, 6/1/ 2014.
D. Drutskoy, E. Keller, and J. Rexford, “Scalable Network
Virtualization in Software-Defined Networks,” Internet Computing,
IEEE, vol. 17, pp. 20-27, 2013.
R. Riggio, F. De Pellegrini, E. Salvadori, M. Gerola, and R. Doriguzzi
Corin, “Progressive virtual topology embedding in OpenFlow
networks,” in Integrated Network Management (IM 2013), 2013
IFIP/IEEE International Symposium on, 2013, pp. 1122-1128.
H. Wen, P. Tiwary, and T. Le-Ngoc, “Network Virtualization:
Overview,” in Wireless Virtualization, ed: Springer International
Publishing, 2013, pp. 5-10.
N. Fernandes, M. D. Moreira, I. Moraes, L. Ferraz, R. Couto, H.
T. Carvalho, et al., “Virtual networks: isolation, performance,
and trends,” annals of telecommunications - annales des
télécommunications, vol. 66, pp. 339-355, 2011/06/01 2011.
X. Chen, C. Li, and Y. Jiang, “Optimization Model and Algorithm for
Energy Efficient Virtual Node Embedding,” Communications Letters,
IEEE, vol. 19, pp. 1327-1330, 2015.
J. Liao, M. Feng, S. Qing, T. Li, and J. Wang, “LIVE: Learning and
Inference for Virtual Network Embedding,” Journal of Network and
Systems Management, pp. 1-30, 2015/05/13 2015.
M. Rahman, I. Aib, and R. Boutaba, “Survivable Virtual Network
Embedding,” in NETWORKING 2010. vol. 6091, M. Crovella, L.
Feeney, D. Rubenstein, and S. V. Raghavan, Eds., ed: Springer Berlin
Heidelberg, 2010, pp. 40-52.
M. Melo, J. Carapinha, S. Sargento, L. Torres, P. Tran, U. Killat, et al.,
“Virtual Network Mapping – An Optimization Problem,” in Mobile
Networks and Management. vol. 97, K. Pentikousis, R. Aguiar, S.
Sargento, and R. Agüero, Eds., ed: Springer Berlin Heidelberg, 2012,
pp. 187-200.
F. Zhu and H. Wang, “A modified ACO algorithm for virtual
network embedding based on graph decomposition,” Computer
Communications.
D. Jian, H. Tao, W. Jian, H. Wenbo, L. Jiang, and L. Yunjie, “Virtual
network embedding through node connectivity,” The Journal of
China Universities of Posts and Telecommunications, vol. 22, pp. 1756, 2// 2015.
A. Jarray and A. Karmouch, “Decomposition Approaches for Virtual
Network Embedding With One-Shot Node and Link Mapping,”
Networking, IEEE/ACM Transactions on, vol. PP, pp. 1-1, 2014.
Z. Ye, L. Yong, J. Depeng, S. Li, and Z. Lieguang, “A virtual network
embedding scheme with two-stage node mapping based on physical
resource migration,” in Communication Systems (ICCS), 2010 IEEE
International Conference on, 2010, pp. 761-766.
L. Wenzhi, X. Yang, M. Shaowu, and T. Xiongyan, “Completing
virtual network embedding all in one mathematical programming,”
in Electronics, Communications and Control (ICECC), 2011
International Conference on, 2011, pp. 183-185.
G. Xiujiao, Y. Hongfang, V. Anand, G. Sun, and D. Hao, “A new
algorithm with coordinated node and link mapping for virtual
[45]
[46]
[47]
[48]
[49]
[50]
[51]
[52]
[53]
[54]
[55]
[56]
[57]
[58]
[59]
[60]
[61]
[62]
[63]
network embedding based on LP relaxation,” in Communications and
Photonics Conference and Exhibition (ACP), 2010 Asia, 2010, pp.
152-153.
W. de Paula Herman and J. R. de Almeida Amazonas, “Hop-byhop Routing Convergence Analysis Based on Paths Algebra,” in
Electronics, Robotics and Automotive Mechanics Conference, 2007.
CERMA 2007, 2007, pp. 9-14.
Y. YoungSeok and B. A. Myers, “An exploratory study of backtracking
strategies used by developers,” in Cooperative and Human Aspects of
Software Engineering (CHASE), 2012 5th International Workshop
on, 2012, pp. 138-144.
A. Chmeiss, Sai, x, and L. s, “Constraint satisfaction problems :
backtrack search revisited,” in Tools with Artificial Intelligence,
2004. ICTAI 2004. 16th IEEE International Conference on, 2004, pp.
252-257.
K. T. Herley, A. Pietracaprina, and G. Pucci, “Deterministic parallel
backtrack search,” Theoretical Computer Science, vol. 270, pp. 309324, 1/6/ 2002.
R. Solis-Oba and G. Persiano, “Special Issue on Approximation and
Online Algorithms,” Theory of Computing Systems, vol. 56, pp. 1-2,
2015/01/01 2015.
A. Hakiri, A. Gokhale, P. Berthou, D. C. Schmidt, and T. Gayraud,
“Software-Defined Networking: Challenges and research
opportunities for Future Internet,” Computer Networks, vol. 75, Part
A, pp. 453-471, 12/24/ 2014.
Y. Xingbin, H. Shanguo, W. Shouyu, W. Di, G. Yuming, N. Xiaobing,
et al., “Software defined virtualization platform based on doubleFlowVisors in multiple domain networks,” in Communications and
Networking in China (CHINACOM), 2013 8th International ICST
Conference on, 2013, pp. 776-780.
R. Jain and S. Paul, “Network virtualization and software defined
networking for cloud computing: a survey,” Communications
Magazine, IEEE, vol. 51, pp. 24-31, 2013.
K. Bakshi, “Considerations for Software Defined Networking (SDN):
Approaches and use cases,” in Aerospace Conference, 2013 IEEE,
2013, pp. 1-9.
Z. Boyang, G. Wen, Z. Shanshan, L. Xinjia, D. Zhong, W. Chunming,
et al., “Virtual network mapping for multi-domain data plane in
Software-Defined Networks,” in Wireless Communications, Vehicular
Technology, Information Theory and Aerospace & Electronic Systems
(VITAE), 2014 4th International Conference on, 2014, pp. 1-5.
Y. Xin, I. Baldine, A. Mandal, C. Heermann, J. Chase, and A.
Yumerefendi, “Embedding virtual topologies in networked clouds,”
presented at the Proceedings of the 6th International Conference on
Future Internet Technologies, Seoul, Republic of Korea, 2011.
H. Wen, P. Tiwary, and T. Le-Ngoc, “Network Virtualization
Technologies and Techniques,” in Wireless Virtualization, ed:
Springer International Publishing, 2013, pp. 25-40.
D. Meyer, “The Software-Defined-Networking Research Group,”
Internet Computing, IEEE, vol. 17, pp. 84-87, 2013.
S. Salsano, N. Blefari-Melazzi, A. Detti, G. Morabito, and L.
Veltri, “Information centric networking over SDN and OpenFlow:
Architectural aspects and experiments on the OFELIA testbed,”
Computer Networks, vol. 57, pp. 3207-3221, 11/13/ 2013.
M. Berman, J. S. Chase, L. Landweber, A. Nakao, M. Ott, D.
Raychaudhuri, et al., “GENI: A federated testbed for innovative
network experiments,” Computer Networks, vol. 61, pp. 5-23, 3/14/
2014.
M. H. Raza, S. C. Sivakumar, A. Nafarieh, and B. Robertson, “A
Comparison of Software Defined Network (SDN) Implementation
Strategies,” Procedia Computer Science, vol. 32, pp. 1050-1055, //
2014.
R. Sherwood, G. Gibb, K.-K. Yap, G. Appenzeller, M. Casado, N.
McKeown, et al., “FlowVisor: A Network Virtualization Layer,”
Deutsche Telekom Inc. R&D Lab, Stanford University, Nicira
Networks2009.
D. Schwerdel, B. Reuther, T. Zinner, P. Müller, and P. Tran-Gia,
“Future Internet research and experimentation: The G-Lab approach,”
Computer Networks, vol. 61, pp. 102-117, 3/14/ 2014.
J. F. Botero, X. Hesselbach, M. Duelli, D. Schlosser, A. Fischer,
and H. de Meer, “Energy Efficient Virtual Network Embedding,”
Communications Letters, IEEE, vol. 16, pp. 756-759, 2012.
Universidad Católica de Pereira
58
[64] L. Nonde, T. E. H. El-Gorashi, and J. M. H. Elmirghani, “Green
Virtual Network Embedding in optical OFDM cloud networks,” in
Transparent Optical Networks (ICTON), 2014 16th International
Conference on, 2014, pp. 1-5.
[65] Y. Zilong, A. N. Patel, P. N. Ji, Q. Chunming, and W. Ting, “Virtual
infrastructure embedding over software-defined flex-grid optical
networks,” in Globecom Workshops (GC Wkshps), 2013 IEEE, 2013,
pp. 1204-1209.
[66] D. Simeonidou, R. Nejabati, and M. P. Channegowda, “Software
defined optical networks technology and infrastructure: Enabling
software-defined optical network operations,” in Optical Fiber
Communication Conference and Exposition and the National Fiber
Optic Engineers Conference (OFC/NFOEC), 2013, 2013, pp. 1-3.
[67] M. F. Bari, R. Boutaba, R. Esteves, L. Z. Granville, M. Podlesny, M.
G. Rabbani, et al., “Data Center Network Virtualization: A Survey,”
Communications Surveys & Tutorials, IEEE, vol. 15, pp. 909-928,
2013.
[68] S. Mehraghdam, M. Keller, and H. Karl, “Specifying and placing
chains of virtual network functions,” in Cloud Networking
(CloudNet), 2014 IEEE 3rd International Conference on, 2014, pp.
7-13.
[69] M. R. C. Faizul Bari, Shihabur; Ahmed, Reaz; Boutaba, Raouf, “ On
Orchestrating Virtualized Network Functions,” 2015.
Néstor Álzate Mejía, se graduó como Ingeniero de Sistemas de la
Universidad Cooperativa de Colombia. Obtuvo el título de Especialista
en Telecomunicaciones de la Universidad Autónoma de Bucaramanga.
Es aspirante a Magister en Ingeniería de Sistemas y Computación de la
Universidad Tecnológica de Pereira. Actualmente es profesor de tiempo
completo en la Universidad Católica de Pereira. Sus principales intereses
de investigación son la Virtualización de Redes y las Redes Definidas por
Software.
José Roberto de A. Amazonas, graduado en ingeniería eléctrica de la
Escuela Politécnica de la Universidad de São Paulo (EPUSP), Brasil, en
1979. Recibió el M.Sc., Ph.D. y grados postdoctorales de EPUSP en 1983,
1988 y 1996, respectivamente. Es profesor asociado del Departamento
de Telecomunicaciones e Ingeniería de Control en EPUSP, donde está a
cargo de la educación e investigación de comunicaciones ópticas y redes de
comunicaciones de alta velocidad. Ocupó diversos cargos en universidades
de Brasil y Europa. También ha dirigido la investigación en colaboración
con varias empresas brasileñas, europeas y norteamericanas. Sus intereses
de investigación se encuentran en el área de las comunicaciones ópticas,
redes cableadas e inalámbricas, la calidad de servicio (QoS) y el aprendizaje
a distancia.
Juan Felipe Botero, es profesor en el Departamento de Ingeniería
Electrónica y de Telecomunicaciones de la Universidad de Antioquia,
Medellín, Colombia. En 2006, recibió su grado en Ingeniería de Sistemas
por la Universidad de Antioquia. En 2008 y 2013 recibió sus grados de
M.Sc. y Ph.D. en Ingeniería Telemática por la Universidad Politécnica de
Cataluña, Barcelona, España. En 2013, se unió al Grupo de Investigación
en Telecomunicaciones Aplicadas (GITA), que actualmente dirige. Sus
principales intereses de investigación incluyen calidad de servicio, redes
definidas por software, virtualización de redes, computación en la nube,
optimización y asignación de recursos en diferentes arquitecturas de red.
Entre Ciencia e Ingeniería
59
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 59 - 66
Medición del nivel de aprendizaje con dos
escenarios de formación: uno tradicional y otro
con TIC1
Measuring the level of learning with two formation
scenarios: a traditional one, and another with ICTs
L. E. Peláez y B. E. Osorio
Recibido Junio 30 de 2015 – Aceptado Septiembre 23 de 2015
Resumen--- La educación, por obedecer a su naturaleza
de ser un servicio social y público, está impregnada de
muchas variables que construyen un contexto enmarañado
de problemas y oportunidades para la mejora constante de la
misma. Mejora a la que todos sus actores quieren llegar con el
pretexto de asegurar poco a poco la calidad deseada.
Precisamente, una de las principales dificultades que se
presenta está relacionada con los resultados obtenidos a partir
de los procesos de evaluación aplicados. En la mayoría de los
casos, ni maestros ni estudiantes quedan conformes. Esto lleva
a la búsqueda de nuevas estrategias de trabajo en colectivo
que permitan crear un mejor ambiente educativo y que a la
vez motiven a los educandos a apropiarse de los conocimientos
que necesitan para enfrentarse a la realidad que el entorno les
ofrece; y a los maestros a procurar mayor pertinencia de los
procesos evaluativos con la realidad a la que pertenecen.
Así, con esta provocación educativa, las Tecnologías de la
Información y la Comunicación - TIC se vuelven un recurso
El artículo es resultado parcial del proyecto de investigación “Medición
del nivel de aprendizaje con dos escenarios de formación: uno tradicional
y otro con tic. el caso del grado quinto de la institución educativa villa
santana” de los grupos de investigación GIII y Lenguaje y Educación de
la Universidad Católica de Pereira, de las facultades de Ciencias Básicas e
Ingeniería y Ciencias Humanas Sociales y de la Educación.
L.E. Peláez., docente de la Facultad de Ciencias Básicas e Ingeniería,
Vicerrector Académico Universidad Católica de Pereira, Pereira (Colombia);
email: [email protected]
B.E. Osorio. Profesora de la Institución Educativa Villa Santana, Pereira
(Colombia); email: [email protected]
1
significativo para darle un ingrediente extra al trabajo de
clase, al aprendizaje, a la evaluación. Si ellas se han convertido
en parte importante de la cotidianidad, entonces por qué no
aprovecharlas para mejorar el acto educativo.
Este trabajo, sistematiza la experiencia llevada a cabo en
la Institución Educativa Villa Santana, la cual consiste en un
trabajo de campo en el que se utilizaron algunas herramientas
para el desarrollo de la temática sobre números fraccionarios
en el grado quinto y el despliegue de algunas estrategias
pedagógicas convencionales y no convencionales, para luego
medir su impacto a partir de los resultados del proceso de
evaluación.
Palabras clave: TIC, pedagogía y evaluación haciendo uso
de las TIC, innovación docente con las matemáticas.
Abstract--- Education, in obedience to its nature of being
a social and a public service, is related to a lot of variables,
which generate a background of problems and opportunities
for the continuous improvement of the process. Improvement
that all the actors want to get based on the pretext of ensuring
gradually the desired quality.
By the way, one of the main difficulties found, are related
to the results obtained from the evaluation processes applied.
In most cases, neither teachers nor students are really satisfied.
This leads to the search for new strategies of collective work
that will create a better learning environment and at the same
time motivate students to appropriate the knowledge they
need to face the reality that the environment offers them; and
teachers to ensure greater relevance of the evaluation processes
with the reality to which they belong.
Based on this educational challenge, the information and
Universidad Católica de Pereira
60
communications technology - ICTs become significant for an
extra ingredient to class work, learning, evaluation resource. If
they have become an important part of everyday life, then why
not use them to improve the educational act.
This work systematizes the experience carried out in the
Educational Institution Villa Santana. Experience is a field
in which some tools for the development of the theme of
fractional numbers in the fifth grade and the deployment of
some conventional and unconventional teaching strategies were
used, and then measure their impact from the results along the
assessment process.
Key words: ICTs, pedagogy and evaluation, using ICTs,
teaching innovation through mathematics.
U
i. introducción
no de los cuestionamientos más comunes
relacionado con la educación tiene que ver con la
manera convencional como se llevan a cabo las
prácticas educativas, haciendo en muchas ocasiones que las
aulas de clase y los espacios pedagógicos carezcan de esos
ingredientes necesarios para cautivar y estimular el proceso
de enseñanza.
Es común encontrar que los estudiantes manifiesten su
inconformidad y su descontento por los contenidos que se
abordan en las clases, porque queda el interrogante sobre qué
tan útil le puede ser en un futuro toda la información que
están recibiendo.
Partiendo de esa inquietud, es necesario contemplar
que las instituciones educativas deben incluir dentro de
su Proyecto Educativo Institucional todos los aspectos
relacionados con el medio en el cual se desenvuelven, debido
a que todas esas características hacen parte de la estructura
educativa.
Otro punto relevante que afecta directamente la educación
hoy en día son los bajos resultados que se están obteniendo
en las diferentes pruebas que verifican y comprueban de
cierta forma la efectividad de los procesos académicos,
como lo son las pruebas SABER, pero sería necesario revisar
las relaciones que tienen que existir para que se obtengan
mejores resultados, por eso se hace necesario tener en cuenta
factores que interactúan entre sí, como son las aptitudes
individuales, las condiciones familiares, la relación profesoralumno, alumno-compañeros, métodos de enseñanza entre
otros [1], que son el complemento para un buen desarrollo
del trabajo.
Es por eso que “el proceso de la enseñanza se ocupa de
las actividades que han de promover el aprendizaje para
proporcionar la motivación y dirección necesarias, así como
un control y orientación eficaces” [2] que se encarguen no solo
de construir conocimiento, sino también de relacionarlo con
el entorno que lo rodea haciendo que haya una aplicabilidad
entre lo que aprende y lo que puede hacer con ello.
Entre Ciencia e Ingeniería
Por esta razón, queda la pregunta, si todo lo que se llama
innovación lo es y si cumple con los parámetros necesarios
para serlo, o si por el contrario, estamos cayendo en el
facilismo de aceptar cualquier propuesta sin evaluarla y sin
comprobar sus resultados.
Entonces las TIC se convierten en un recurso innovador
ya que “influyen en los aspectos socioculturales del ser
humano permitiéndole crear nuevas visiones de mundo a
partir de la interactividad que ofrecen estas en el contexto”
[3]; esto hace que se replanteen nuevas formas de trabajo,
permitiendo que se visionen otro tipo de metodologías más
productivas por el nivel de apropiación que tendrían los
estudiantes del conocimiento.
Se hace necesario reconocer que “una de las
motivaciones para aprovechar las TIC en la educación,
es su capacidad para permitir el intercambio rápido, fácil
y eficiente de información” [4] haciendo que las clases
sean más acordes con las necesidades actuales. Uno de
los modelos más acordes para llevar a cabo en el contexto
educativo sería el b-learning, que incluye una parte virtual
y otra presencial siendo una forma de trabajo que favorece
el proceso formativo de los estudiantes, pero es necesario
que la metodología de Enseñanza - Aprendizaje en la básica
primaria también comience a contemplar la tecnología como
referente de trabajo y recurso de clase, siendo un estímulo
para afianzar el conocimiento y provocar una visión activa y
crítica frente a la misma.
De esta forma, si se tiene en cuenta que cada elemento
relacionado con las prácticas pedagógicas busca un proceso
de resignificación de las TIC, es posible entonces refutar
afirmaciones como la de Pineda López et all cuando
plantean “un recurso y componente indispensable en el aula,
no sólo para aprender a usar las herramientas tecnológicas,
sino también para apoyar las distintas áreas obligatorias,
impulsando así procesos de mejoramiento de la educación”
[5]; pues una cosa es utilizarlas -las TIC- como soporte
al acompañamiento pedagógico, y otra considerarlas
indispensables para la acción educativa.
Es importante plantear que se tiene una visión,
posiblemente equivocada sobre el uso adecuado de las TIC
en las instituciones educativas, porque aunque se le consulta
a directivos y docentes, sobre dicha situación, estos plantean
que sí las utilizan, pero esa respuesta es más por el uso
genérico de recursos informáticos, que por un uso enfocado
mediante un análisis profundo que lleve a reconocer que estas
herramientas permiten transformar los métodos educativos
siendo esto el mayor beneficio que podrían brindar a los
procesos académicos [6].
Pero es necesario contemplar que no basta con buscar
nuevas estrategias para cambiar la actitud de los estudiantes
frente al aprendizaje, sino que el papel del docente también
es importante, por eso debe renovarse, para que desde
una nueva visión, se replantee la función y el propósito
61
que encierra cada uno de los elementos que comprende el
proceso de enseñanza.
las relaciones entre ellos y las operaciones básicas (suma,
resta, multiplicación y división).
Ahora bien, es indispensable que los docentes comiencen
a prepararse y a apropiarse de nuevas herramientas que
se ajusten a las necesidades actuales que la sociedad
crea diariamente, siendo esto “esencial para elevar el
rendimiento académico de los estudiantes y así posibilitar
que posean las condiciones indispensables para afrontar
los retos del contexto actual y futuro” [7] De hecho, deben
implementarse en el aula de clase diversos elementos que
le permitan al estudiante concebir de manera diferente los
espacios educativos y las TIC se conviertan en un recurso
muy llamativo, porque les permite tener un contacto directo
con la información y crear una interacción con su propio
aprendizaje. Aunque no se puede desconocer que esta
infraestructura tecnológica aún no hace parte de todas las
instituciones educativas, es de resaltar que el objetivo del
Ministerio de Educación Nacional es el de “garantizar un
contexto favorable para el aprovechamiento de las TIC y los
medios digitales en la escuela” [8].
Se hace una revisión de distintos referentes bibliográficos
como los estándares básicos en el aérea de matemáticas [10]
y algunos libros de trabajo correspondientes al grado quinto,
que proporcionan la información necesaria para hacer una
sustentación teórica que contribuya a direccionar el proceso
y a estructurar un escenario que permita la validación de la
experiencia.
Por todo lo anterior, se hace necesario empezar a generar
proyectos que busquen caracterizar y sistematizar la forma
como las TIC se están utilizando dentro del aula de clase y
la evaluación de los resultados de estos usos. Este proyecto,
en particular, da cuenta del trabajo de campo llevado a cabo
en la IE Villa Santana con los estudiantes de grado 5 de
primaria.
II. Metodología
El proyecto se desarrolla a partir del planteamiento del
problema que surge de aquellas situaciones cotidianas que se
presentan en el aula de clase y que afectan de alguna manera
el proceso académico.
Como objetivo general se busca medir y analizar
comparativamente el rendimiento académico de los
estudiantes del grado 5 (A y D) de básica primaria de la
Institución Educativa Villa Santana en el área de matemáticas,
mediante la implementación de estrategias de formación con
diferentes estímulos: clase convencional y clase con el apoyo
de las Tecnologías de Información y la Comunicación (TIC)
La población sobre la que se lleva a cabo el trabajo de
campo son los estudiantes del grado 5 de básica primaria
de la jornada de la mañana de la Institución Educativa
Villa Santana de la ciudad de Pereira (grado 5A con 33
estudiantes -15 niños y 18 niñas- como grupo control; y al
grado 5D con 32 estudiantes -15 niños y 17 niñas- como
grupo experimental, “donde se toma en cuenta la similitud
y la diferencia entre dos o más grupos de personas” [9] para
luego describir las características de dicha experiencia.
Seguidamente, se estructura una propuesta metodológica
que busca caracterizar el escenario donde ocurre dicha
problemática, en este caso consiste en realizar un trabajo de
campo con los estudiantes de grado 5 de la básica primaria en
el área de matemáticas, implementando diferentes estrategias
metodologías: una convencional y otra no convencional
(léase con intención de innovación pedagógica) apoyada
en las TIC, para luego medir su impacto y comparar los
resultados.
El desarrollo del proyecto inicia con una medición
antes (pre-test) para identificar el punto de partida, luego
se hace la aplicación de la propuesta con la selección de
grupos homogéneos y nuevamente se hacen las mediciones
al terminar (pos-test) para poder realizar las comparaciones
respectivas [11] y de allí sacar las conclusiones finales.
Durante el transcurso de la experiencia se hace un
seguimiento por parte de las docentes por medio de un
formato, donde se reconocen ciertos comportamientos
de los estudiantes de manera generalizada y que tienen
gran relevancia en el momento de valorar la efectividad
de la propuesta, estos aspectos están relacionados con la
motivación, la atención y la actitud que muestran frente al
desarrollo de la temática.
III. Caracterizacion de La Propuesta
La propuesta se basa en la utilización de las TIC
como estrategia práctica de clase, por medio del uso de
herramientas informáticas disponibles en el mundo del
software libre, como: mundo primaria, ciberkids, accedetic.
es, viva juegos, entre otros, para este caso se implementan
como una estrategia pedagógica –actuando como OVAS:
Objetos Virtuales de Aprendizaje-, organizándolas en 16
OVAS distribuidas en 8 sesiones de trabajo, relacionadas
con las diferentes temáticas sobre números fraccionarios.
Las clases están compuestas de una parte explicativa del
concepto y cuentan con diferentes ejercicios prácticos que
afianzan los conocimientos y les permite apropiarse de
los mismos. Las Tablas I y II muestran un resumen de la
información que se identificó en casa clase.
La temática a abordar está enfocada al área de matemáticas
relacionada con los números fraccionarios. Se incluyen
conceptos relacionados con la definición, la representación,
Universidad Católica de Pereira
62
tabla i. información identificada durante las clases del
grupo experimental
es necesario presionar al estudiante para que conserve la
disposición por el trabajo que se encuentran realizando.
Durante la ejecución de la propuesta también son
importantes las conductas de las personas sometidas al
estudio, en este caso las docentes, porque sus opiniones y
comentarios son válidos en el momento de interpretar los
resultados y de evaluar las prácticas realizadas [9]. Para
ello se estructura un formato de seguimiento que permita
registrar los comportamientos y actitudes del grupo con
relación al trabajo y además reconocer las manifestaciones
y observaciones que plantea el docente con relación a la
experiencia en general. Es decir, esta intención de medición
se convierte en un primer intento para conocer variables
actitudinales como la motivación, la atención, la actitud, en
el orden cualitativo.
tabla ii. información identificada durante las clases del
grupo convencional
IV. Resultados.
Al momento de iniciar las prácticas se hace una inducción
a los estudiantes sobre el trabajo a realizar, se socializan
las características de los ejercicios y los propósitos que se
pretenden alcanzar. Se plantean las reglas de juego teniendo
en cuenta el trabajo individual y en equipo que permite hacer
este tipo de actividades.
El tiempo para la aplicación de las actividades prácticas
es de tres semanas, en las cuales se trabaja con una
periodicidad de tres días a la semana con una intensidad
de dos horas de clase. Dentro de la programación estaban
adicionalmente dos sesiones con el grupo experimental, en
las cuales se realizaba una ambientación y familiarización
con la herramienta, en este caso el computador. La temática
fue igual en ambos grupos, para el grupo experimental se
utilizaban en promedio dos OVAS por clase, mientras que
en el grupo control se suministraban los ejercicios de forma
impresa.
Dentro de las generalidades se observa que los estudiantes
demuestran, en la metodología convencional, una actitud que
se combina entre neutral y negativa como se puede evidenciar
en la Tabla 2., mientras que en la metodología TIC la actitud
es positiva debido a que las actividades permiten cautivarlos
durante el desarrollo de las mismas por ser más novedosas y
llamativas, como se aprecia en la Tabla 2.
Los niveles de atención también se ven alterados
positivamente en el caso del uso de las TIC; se infiere
desde el trabajo que estos niveles se identifican porque las
herramientas permiten una atención espontánea que parte
de un interés existente y no requiere de una concentración
adicional en ocasiones forzada, en cambio en la convencional
Entre Ciencia e Ingeniería
Los OVA están planteados de manera que se va haciendo
un acompañamiento por los puntos de trabajo revisando
que se vaya avanzando progresivamente, las actividades
permiten ir reconociendo la efectividad con la que se
resuelven, debido a que sólo permite avanzar al siguiente
punto si lo hace correctamente. Luego como estrategia de
trabajo de clase se propicia un espacio de competencia entre
grupos de estudiantes para afianzar los conocimientos sobre
el tema.
Todos estos elementos de trabajo hacen parte del proceso
educativo, es necesaria una estructuración de los programas
académicos de modo que puedan ofrecer mayores y mejores
resultados, porque si son utilizados de manera acertada
permitirían un avance más significativo en el alcance de las
competencias de los estudiantes.
Después de aplicar los instrumentos en las clases
programadas, se lleva a cabo la reflexión comparativa de
los resultados obtenidos en cada uno de los grupos tomando
como base los indicadores de desempeño planteados,
consiguiendo los datos que se resumen en las Tablas III y IV
y en las Fig. 1 y 2 respectivamente.
2
Nota del Autor: Si el lector quiere conocer en detalle la metodología
y los instrumentos de medición utilizados, puede contactar a los autores
al correo [email protected]; pues la estructura de este documento
exige respetar las políticas de la publicación que no permiten relacionar
estos formatos.
63
GRUPO 1: EXPERIMENTAL
tabla iii. resultados pre-test y post-test del grupo
experimental
observa que hubo un mayor avance en el grupo experimental
ya que alcanza un porcentaje del 31% (10 estudiantes) frente
al 24% obtenido por el grupo control (8 estudiantes); se
resalta igualmente que el grupo experimental alcanzó un 13%
(4 estudiantes) en el desempeño alto, mientras que el grupo
control no presentó ningún estudiante en esta categoría.
Se debe mencionar que durante el trascurso de la
programación surgieron algunas dificultades con la puesta
en práctica de las actividades, porque la conexión a internet
con la que cuenta la institución educativa no es la mejor y
en algunas ocasiones estando en clase, se debía modificar la
forma de trabajo, organizándolos de forma diferente como
en grupos más grandes o haciendo otras actividades prácticas
relacionadas con la temática.
Fig. 1. Resultados pre-test y post-test del grupo experimental.
GRUPO 2: CONTROL
tabla iv. resultados pre-test y post-test del grupo control
Esto último, resulta clave al momento de medir
las actividades, caracterizar al grupo y controlar los
resultados; pues los estudiantes van perdiendo motivación
de trabajar con las herramientas multimediales cuando los
aspectos relacionados con hardware y conexión no pueden
ser controlados por ellos mismos para que funcionen
adecuadamente.
V. Formato De Seguimiento
Los Profesores encargados de cada grupo en el trabajo
de campo, tuvieron la labor de diligenciar las actitudes
que reportaban los estudiantes mientras se desarrollaban
las clases. La Tabla V muestra las conclusiones de los
Profesores al respecto.
tabla v. aptitudes observadas por los grupos de estudiantes
Respecto al grupo experimental, se resalta que durante el
proceso la motivación fue constante en el momento de realizar
los ejercicios. Los estudiantes se mostraban participativos e
interesados por resolver las diferentes actividades, además
se generaba la solicitud para que se dejaran actividades para
la casa, llevándolos a hacer consultas externas fomentando
con ello su propio auto-aprendizaje.
Fig. 2. Resultados pre-test y post-test del grupo control.
Los grupos homogéneos fueron sometidos al proceso
con profesores con experiencias y estilos similares, de tal
manera que estos factores no se convirtieran en elementos
de impacto para concluir alrededor de lo bueno o malo de
cada proceso de enseñanza-aprendizaje. En este sentido, los
resultados permiten evidenciar que ambos grupos obtuvieron
desempeños bajos como resultado en el pre-test, pero se
Otra de las situaciones que llamó la atención fue la forma
en que competían entre ellos para resolver las actividades,
se buscaban y se explicaban o corregían sin ningún tipo de
pelea o reacción incomoda, por el contrario se ayudaban sin
necesidad de que la docente hiciera este tipo de solicitudes.
La interacción de los estudiantes con el recurso, en este
caso el computador, propiciaba un ambiente divertido, que
hacía de la clase un espacio ameno y agradable donde la
temática se convertía en un ingrediente positivo y no en una
carga dentro de la clase.
Universidad Católica de Pereira
64
Otra de las características positivas que brinda el
instrumento basado en las TIC, en este caso los OVA, es que
permite un trabajo de retroalimentación constante, debido a
que durante la exploración y desarrollo de las actividades
se va revisando el proceso, es decir, hago el ejercicio y
me indica si quedó bien o no en el momento, sin tener que
esperar hasta que se entreguen los resultados quedando así
dudas e inquietudes frente a la temática.
Respecto al grupo control se evidenció poco entusiasmo
de los estudiantes en el momento de resolver los ejercicios
prácticos, la docente manifestaba en el diligenciamiento
de los formatos que algunos ni terminaban de resolver las
actividades asignadas y que se distraían con facilidad tanto
en el momento explicativo como en el de la ejecución de
los talleres. Esto a pesar que las estrategias de trabajo iban
desde la elaboración de gráficas, la realización de ejercicios
prácticos de forma individual y grupal y la socialización
general de los resultados.
La participación durante las explicaciones normalmente
se da por parte de los mismos estudiantes, precisamente
aquellos que siempre lo hacen y que cuentan con una
motivación extra, es decir que manifiestan un interés
constante por ocupar un buen puesto o por agradar a sus
padres o acudientes presentando un buen comportamiento
en el aula.
Cuando se realizó el trabajo en clase con las primeras
temáticas acerca de la definición, representación de
fracciones, fracciones equivalentes, donde se explica por
medio de gráficas y secciones coloreadas, hubo una buena
actitud por parte de los estudiantes para desarrollar los
ejercicios, pero cuando el programa fue avanzando y las
actividades eran más numéricas, sin ese factor extra de color
y llamativo visual, disminuyó el interés y la disposición
hacia ellas.
VI. Discusion
Es necesario reconocer que las Tecnologías de
Información y Comunicación, en este caso como tecnología
educativa, permiten ofrecer grandes posibilidades para
mejorar los procesos de enseñanza. Empero, se debe
entender que un software educativo por sí solo no puede
lograrlo, necesita de una integración curricular que le
garantice las condiciones necesarias para lograr su propósito;
así, es indispensable contemplar otros factores de gran valor,
en este caso la conexión a internet, los equipos que se tienen,
la habilidad del Profesor para la manipulación y explicación
de la herramienta, es decir, elementos que aunque no
eran parte del proyecto, llegaron a incidir en el trabajo de
campo; en esta línea, la disponibilidad de los espacios, etc.
siendo elementos relevantes para conseguir los resultados
esperados.[12]
Lo anterior permite inferir que la educación convencional
en la cual los estudiantes han estado recibiendo dichos
Entre Ciencia e Ingeniería
conocimientos debe ser evaluada en su pertinencia, dado
que no les ha permitido realizar verdaderos procesos de
significación, y más cuando las condiciones sociales hacen
tanto énfasis en las diferencias que existen entre algunos
grupos sociales. En este sentido, Ausubel [13] sostiene que
la experiencia humana no solo implica pensamiento, sino
también afectividad y únicamente cuando se consideran
en conjunto se capacita al individuo para enriquecer el
significado de su experiencia, es por eso que se hace
necesario buscar otros elementos que permitan establecer
mayores relaciones entre la sociedad y el conocimiento.
Uno de los propósitos de la educación hoy en día con
relación a los estudiantes se debería basar en permitirles
“interactuar y avanzar a su propio ritmo adquiriendo la
confianza necesaria para investigar, innovar, argumentar
y desarrollar la capacidad matemática que todos tenemos”
[14] esto nos lleva a pensar que el adecuado uso de las
TIC se convierte en un recurso metodológico y didáctico
que contribuye a resolver dicha situación, debido a las
característica que presenta en su desarrollo de las actividades
de clase, no sólo porque les permite resolverlas según sus
capacidades, sino que también le añade ese ingrediente
adicional llamado motivación que es tan indispensable en el
ámbito educativo.
Lo anterior exige también un maestro más preparado
para explotar las TIC como un recurso propio del desarrollo
pedagógico. En la línea de Peláez [15] los dispositivos
móviles y las demás tecnologías similares se han vuelto
parte inalienable del estudiante y deberían aprovecharse
pedagógicamente, no de manera sancionatoria.
Por otro lado se debe reconocer que nuestros estudiantes
tiene una visión diferente de la realidad en la que viven y es
completamente indispensable aprovechar los beneficios que
nos brindan las TIC para poder hacer ese tipo de análisis
[3] porque si permitimos que haya una interacción entre el
contexto y la información que se posee, se podrían obtener
mejores resultados y más acordes con los intereses de nuestra
comunidad.
Un elemento relevante para el acto educativo –sobre todo
por parte de los Maestros- es el momento en que se debe
determinar qué estrategia metodológica es más acorde para
trabajar una temática en el aula y con las TIC es necesario
“ponernos en el lugar del estudiante” [16] porque al fin y al
cabo, son ellos los que deben asimilar y comprender lo que
se les quiere transmitir, se debe buscar la forma para que
no sólo sea transmitir y repetir un conocimiento sino que
se utilice para resolver otras situaciones y pueda sacar sus
propias conclusiones a partir de la experiencia, hecho que le
permite apropiarse del mismo.
VII. Conclusiones
Un punto significativo y de gran relevancia se centra
en la efectividad que pueden presentar las TIC como
65
herramienta de trabajo, porque si a pesar del corto tiempo
en que se aplicó la propuesta, se alcanzaron, de alguna
manera, resultados positivos sería muy interesante formular
un seguimiento al rendimiento de un grupo escolar con
un tiempo más largo de aplicación y que permita realizar
una transversalización de diferentes temáticas por medio
de herramientas multimediales, además que contribuyan
a fomentar un desarrollo individual dependiendo de las
características y necesidades de cada uno de los estudiantes.
Igualmente relevante será reconocer que este tipo de
propuestas que implementan nuevas estrategias de trabajo,
mejoran el interés y la motivación por las actividades
prácticas de clase, en este caso herramientas multimediales,
que ofrecen una dinámica diferente donde se produce una
interacción con la información que se quiere impartir, dando
la posibilidad de realizar unas prácticas más lúdicas que
favorezcan los ritmos de aprendizaje.
Es necesario que los Profesores exploren estrategias
pedagógicas que, con el uso de las TIC o sin el uso de
ellas, estén acordes con la realidad y ofrezcan una respuesta
pertinente al momento educativo y a la población para quien
se prepara la enseñanza. Esto es, brindar un ambiente de
aprendizaje acorde con sus características, de forma que
pueda estar a la par con todo aquello que hace parte de su
entorno y que le pueda ofrecer mayores posibilidades en una
vida productiva a futuro.
En la Institución Educativa Villa Santana, el área de
matemáticas se ha convertido en el talón de Aquiles de
muchos de los estudiantes; por sus manifestaciones, es
evidente la fobia que le muestran a dicha área y por tal
razón su desinterés por ella, es necesario que se reconozca
cual es su importancia y sus beneficios para el desarrollo
del pensamiento matemático, indispensable para tener un
análisis coherente en cualquier situación cotidiana y además
que las estrategias que se utilicen para el trabajo en clase se
basen en la experimentación, en la ejemplificación y en su
aplicabilidad, por eso las TIC representan un buen recurso de
trabajo permitiendo involucrar los elementos necesarios para
crear un ambiente agradable de aprendizaje.
La experiencia con relación al diseño y estructuración
de los OVA fue muy enriquecedora porque ahí se ven
reflejados muchos de los conocimientos recibidos durante
la especialización, demostrando una vez más que es
indispensable estar en constante aprendizaje para beneficiar
nuestras prácticas educativas y ampliar la visión que tenemos
por medio del conocimiento.
Ha sido una experiencia limitada con un escenario para el
trabajo de campo reducido (en temática, población objetivo y
tiempo de aplicación); pero la práctica permite concluir que
los estudiantes aprenden más y mejor cuando se les saca del
contexto tradicional de la clase magistral y el taller escrito
en hojas. Las TIC se denotan como un elemento propio
de diversificación en la estrategia pedagógica mediante el
despliegue de didácticas apoyadas en elementos más allá
de los tradicionalmente aplicados por los maestros: tablero,
lecturas, ejercicios en cuaderno, etc. Sin embargo, se debe
reconocer que también hay otros factores que influyen
durante el proceso.
VIII. Recomendaciones: Futuras Lineas De
Trabajo
Este trabajo deja como futuras líneas de exploración o de
investigación, la posibilidad de aplicar la metodología –quizá
mejorada inclusive-, en grupos experimentales más amplios
con otras temáticas y con mejores espacios de tiempo para
enriquecer las conclusiones; que además permitirán que
poco a poco, los profesores empiecen a concientizarse de la
responsabilidad que tienen dentro del proceso de enseñanzaaprendizaje. Buscar alternativas diferentes que ayuden
a mejorar el rendimiento académico de los estudiantes
teniendo en cuenta sus capacidades y características.
Por eso las TIC se convierten en una buena herramienta
para complementar una estrategia metodológica atinada,
pertinente, que cuente con los elementos necesarios
para el alcance de las competencias en cualquier área del
conocimiento.
También, las instituciones educativas deben contar
con ciertas condiciones en su infraestructura que permitan
garantizar que la tecnología llegue a las aulas de clase,
algunos de esos recursos como el computador, internet,
herramientas multimediales, OVAs, videos, ofrecen grandes
beneficios a las prácticas pedagógicas porque involucran
diferentes elementos en su programación que contribuyen
al mejoramiento del proceso educativo en general. Siempre
y cuando se tenga un fin educativo que apunte a llevar al
estudiante a tener un espacio de reflexión y producción,
con una estructura definida que contenga una secuencia de
introducción, contenidos y evaluación y que no se convierta
solamente en una serie de contenidos digitales.
Referencias
Rodríguez Diéguez, J. L., & Gallego Rico, S. (1992). Lenguaje y
Rendimiento Académico. Salamanca:
Ediciones Universidad de
Salamanca
[2
Kelly, W. A. (1982). Psicología de la Educación (Septima Edición
ed.). Ediciones Morata.
[3] Duque Montoya, J. C., Mamián Mamián, A., & Tapasco Devia, S.
(2012). Uso de las tic en la práctica pedagógica de los estudiantes
de la Licenciatura en Comunicación e Informática Educativas de la
Universidad Tecnológica de Pereira . Pereira.
[4] Granados, J. C., Portilla, D., & Torres, M. P. (Octubre-Diciembre de
2009). Aprovechando las TIC para la educación y la inclusión social.
Revista Colombiana de Telecomunicaciones , 16, 66.
[5 Pineda López, L. F., Arango Morales, M. V., & Bueno Vergara, C.
(2013). La Incorporación de las TIC para mejorar la comprensión
lectora de los estudiante de grado primero C, de la institución
educativa Remigio Antonio Cañarte, sede providencia, de la ciudad
de Pereira. 12.
[6] Mena, D. L., Salamandra, M., & Linares, B. (2014). Impacto del
uso e implementación de las TIC en los procesos formativos en el
departamento de Risaralda. Textos y Sentidos , 121.
[1]
Universidad Católica de Pereira
66
[7] Tobón Tobón, S., Pimienta Prieto, J. H., & García Fraile, J. A. (2010).
Secuencias didácticas. Aprendizaje y evaluación de competencia.
México: Pearson Educación de México.
[8] Valencia Cobos, J., & Camargo Ariza, K. (2013). Estrategias para el
fortalecimiento de las TIC en las escuelas en Colombia. Colombia
Digital, 33.
[9] Carvajal Sánchez, J. (2012). Iniciación a la Investigación. Tunja:
Ediciones Juan de Castellanos
[10] Schmidt Q., M. (2006). Estándares Básicos de Competencias en
Lenguaje, Matemáticas, Ciencias y Ciudadanas. Guía sobre lo que los
estudiantes deben saber y saber hacer con lo que aprenden. Colombia:
Ministerio de Educación Nacional.
[11] Briones, G. (1996). Metodología de la investigación cuantitativa en
las ciencias sociales . Bogotá: Impresores Ltda.
[12] Pizarro, R. A., & Ascheri, M. E. (2009). Diseño e Implementacion de
un Software Educativo en Cálculo Numérico. Revista Iberoamericana
de Tecnología en Educación y Educación en Tecnología.
[13] Ausubel, D. (1983). Teoria del Aprendizaje Significativo. Fascículos
de CEIF.
[14] Badillo Medina, G. B., & Rodriguez Molina, J. F. (2010). Las TICs
“Educación Digital” como herramienta pedagógica en función del
mejoramiento del aprendizaje de las matemáticas.
[15] Peláez, L. E. (2009). La importancia de la apropiación de las TICS en
el entorno educativo. Pereira.
[16] Rojas Bonilla, G. F. (2011). Uso Adecuado De Estrategias
Metodológicas en el aula (Vol. 15).Investigación Educativa.
Luis Eduardo Peláez Valencia, actualmente se desempeña como
Vicerrector académico de la Universidad Católica de Pereira. Magister en
Ingeniería del software, Master en Ingeniería, Especialista en propiedad
intelectual: propiedad industrial, derechos de autor y nuevas tecnologías.
Ingeniero de sistemas. Investigador del Grupo de Investigación en
Innovación e ingeniería (GIII) de la Universidad Católica de Pereira. Asesor
de la Comisión Nacional de Aseguramiento de la Calidad de la Educación
Superior CONACES 2013-2015.
Beatriz Eugenia Osorio Patiño, docente de básica Primaria en
el municipio de Pereira, licenciada en Educación Física, Recreación y
Deporte, Especialista en Lúdica Educativa. Especialista en Edumática de la
Universidad Católica de Pereira.
Entre Ciencia e Ingeniería
67
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 67 - 74
Una revisión del estado del arte de la medida de
la nanodureza usando el Microscopio de Fuerza
Atómica1
A review of the state of the art when measuring the
nanohardness using the Atomic Force Microscope
D. F. Arias, D. Pérez y J.M. González
Recibido Junio 30 de 2015 – Aceptado Septiembre 23 de 2015
Resumen— En la nanociencia y en la nanotecnología, una
de las herramientas más poderosas es el microscopio de fuerza
atómica (AFM siglas en inglés). Instrumento que sirve para
caracterizar los materiales a nivel superficial. Dentro de esas
características está evaluar la dureza a escala manometría
(nanodureza), utilizando el método de nanoindentación en
el modo de espectroscopia. En materiales como las películas
delgadas en los que sus espesores son del orden de decenas de
nanómetros de espesor, el equipo adecuado para medir la dureza
es el AFM. En este artículo se pretende realizar una primera
aproximación a algunos modelos usados para evaluar la dureza
usando el AFM a partir del modelo elástico.
Abstract— in nanotechnology, one of the powerful tools
is the atomic force microscope (AFM). Instrument used to
characterize materials superficially. Nanoscale hardness
(nanohardness) using nanoindentation method spectroscopy
mode is considered when evaluating these characteristics. The
suitable equipment to measure the hardness in materials such
as thin films, with thicknesses on the order of tens of nanometers
is the AFM. In this article, the authors propose a first approach
to some models used to evaluate the hardness, using the AFM,
based on the elastic model.
Key words— nanohadness, atomic force microscopy, Oliver
Pharr model, spectroscopy of forces.
Palabras clave—nanodureza, microscopio de fuerza atómica,
modelo de Oliver Pharr, espectroscopia de fuerzas.
E
1
Producto derivado del proyecto de investigación “Estudio
Comparativo de medidas de nanodureza usando las técnicas de AFM y
nanodurómetro para diferentes diseños de películas delgadas”. Presentado
por el Grupo de Investigación GEMA, de la Facultad de Ciencias Básicas
e Ingeniería, avalado por el centro de innovación e investigación de la
Universidad Católica de Pereira.
D. F. Arias, docente de la Facultad de Ciencias Básicas e Ingeniería de
la universidad Católica de Pereira, Pereira (Colombia); email: diego.arias@
ucp.edu.co.
D. Pérez, joven investigador COLCIENCIAS, Universidad
Tecnologice de Pereira, Pereira (Colombia); email: [email protected]
J.M. González, Líder de la línea de Biotecnología y Nanotecnología del
Tecnoparque SENA-Nodo Cali, Cali (Colombia); email: juanmgonzalezc@
gmail.com
I. Introducción
n una conferencia impartida en 1959, uno de los
grandes físicos del siglo pasado, Richard Feynman,
predijo que “hay mucho espacio en la parte inferior” (el
título original de la conferencia fue “There’s plenty of
room at the bottom”) y auguraba una gran cantidad de
nuevos descubrimientos si se pudiera fabricar materiales
de dimensiones atómicas o moleculares. Esta predicción
se ha cumplido en su totalidad en estos últimos 20 años, y
gracias a esos descubrimientos es que una de las áreas de la
investigación que ha tenido una gigantesca importancia es la
Nanotecnología. Dentro de esta área se encuentra la ciencia
de las películas delgadas, materiales que se depositan en
superficies a las que se les quiere mejorar su desempeño desde
el punto de vista mecánico, tribológico, magnético, óptico,
electrónico entre otros. Debido a la baja dimensionalidad
Universidad Católica de Pereira
68
(espesores menores a 1 µm) de estos materiales su física
es diferente a su correspondiente en bloque. Cuando se va
estudiar el desempeño mecánico de las películas delgadas
uno de los instrumentos adecuados es el microscopio de
fuerza atómica (AFM) en su modo de espectroscopia.
Dentro del estudio mecánico de los recubrimientos está la
determinación de la dureza. Ya que para evaluar la dureza, se
necesita que las cargas sean del orden de nanonewton (nN),
asegurando que las lecturas correspondan a la película y no
al sustrato.
La idea de la nanoindentación surge de la necesidad
de medir las propiedades mecánicas de volúmenes muy
pequeños de materiales. En principio, si la punta es muy
aguda, el volumen del material que se prueba se puede hacer
arbitrariamente pequeño. Sin embargo, en este caso, es muy
difícil determinar el área de indentación. La dureza de hecho
es definida como la relación entre la máxima carga aplicada
(Pmax) y el área proyectada de la impresión de indentación
(Ap). Para evaluar esta área, varios métodos de detección
de profundidad de indentación (DSI) han sido desarrollados
[1-3], los cuales permiten, de manera indirecta, medir el Ap y
evaluar la dureza sin la imagen de la huella de la indentación.
La mayoría de los estudios recientes concernientes a la
nanodureza de materiales son basados en el análisis de
curvas desplazamiento-carga usando el método de Oliver y
Pharr (O-P) [2-5].
En el ensayo de indentación, la dureza y el módulo
elástico dependen fuertemente del área de contacto del
material-indentador en el momento de carga. Sin embargo,
muchos de los comportamientos elástico-plásticos, tales
como recuperación elástica durante la descarga y perfiles de
apilamiento o hundimiento durante la indentación afectan
la determinación de la dureza y el módulo elástico. Por lo
tanto, el AFM es un método importante para suministrar
un conocimiento exacto de la impresión de la indentación
especialmente si se presentan deformaciones plásticas, que
llevan a errores en la determinación del área de contacto [6].
El experimento de nanoindentación se lleva a cabo
mediante el empleo de un indentador que ejerce presión
sobre la superficie del material de estudio. Los datos
experimentales de desplazamiento contra carga aplicada son
almacenados a través de un actuador y un sensor. Puesto
que las propiedades mecánicas del material constituyente
del indentador son conocidas, la dureza de indentación
y el módulo reducido del material de estudio pueden ser
obtenidos a partir del comportamiento de descarga y la teoría
de mecánica de contacto. La mecánica de contacto fue la
primera que originó la investigación del comportamiento de
contacto entre dos cuerpos distintos por Boussinesq [7] y
Herz [8, 9]. Sneddon [10] desarrolló una teoría para predecir
el comportamiento de contacto para cualquier golpe con un
sólido de revolución de una función suave. Él descubrió que
la relación entre desplazamiento y carga se puede predecir a
través de una función de ley de potencias y ha sido usada en el
cálculo del módulo reducido en el ensayo de nanoindentación.
Entre Ciencia e Ingeniería
Debido a que la huella residual del ensayo de indentación
es bastante pequeña, el área proyectada es difícil de ser
observada directamente a través de un microscopio óptico.
Como solución a esta limitación, O-P [2] propuso la función
de área para describir aproximadamente la relación entre el
área proyectada y la profundidad de contacto.
El mérito de la nanoindentación es la capacidad de medir
las propiedades mecánicas de películas delgadas comparadas
con los ensayos de indentación tradicional. La organización
internacional de estándares (ISO, siglas en inglés) [11-13]
publicó la guía para el ensayo de indentación. Se recomendó
que el total del desplazamiento deber ser diez veces menor
que el espesor de la película delgada para evitar la influencia
del sustrato en los resultados del ensayo. Por otra parte
cuando el desplazamiento total se vuelve superficial, el área
proyectada calculada desde la función de área de O-P se
incrementará o fluctuará. Sin embargo, este fenómeno no
existe en la práctica [14].
El método de nanoindentación usando AFM es bien
conocido para la evaluación de propiedades desde películas
delgadas, polímeros y tejidos orgánicos[15-17]. En los últimos
años se han hecho esfuerzos para medir cuantitativamente
la dureza de las películas delgadas usando nanoindentación
por medio del AFM [18-25]. Desafortunadamente, muchos
de estos reportes presentan incertidumbres debido a la
falta de calibración de sus componentes fundamentales,
los valores de la medida de la dureza no son uniformes de
acuerdo a la profundidad de indentación y están lejos de los
valores reales [26]. Entre las incertidumbres, dos factores
son principalmente considerados como parámetros de
compensación para la dureza cuantitativa evaluado por la
nanoindentación con AFM. Uno es que la función teórica de
la geometría de la punta, representando la relación entre el
área proyectada de contacto y la profundidad de indentación,
es diferente con la geometría real de la punta. Una punta
cúbica es usada en la nanoindentación con AFM. El área
proyectada de contacto es generalmente obtenida por el
cálculo de la geometría teórica de la punta como una función
de la profundidad de indentación,
(1)
Donde Ap es el área proyectada de contacto de la punta
y hc es la profundidad de indentación. Esta función teórica
es adecuada únicamente para formas cúbicas ideales porque
las formas reales de las puntas son diferentes del modelo
ideal. Generalmente se usan puntas cúbicas con radios
de unas pocas decenas de nanómetros en el ápice. Esta
forma redondeada del ápice de la punta induce a errores a
profundidades de indentación por debajo de 100 nm. El otro
es la no uniformidad de los ejes perpendiculares de carga que
surge de la deflexión del cantiléver durante la indentación.
Esta no uniformidad en los ejes de carga en la muestra, hace
formas asimétricas en la superficie de la misma. Una forma
de la superficie deformada es otro factor de error comparado
con el área de contacto proyectada calculada [26].
69
La nanoindentación usando el AFM [27, 28], permite medir
directamente el área proyectada de la huella de indentación,
logrando suministrar características interesantes como
imagen correcta de la indentación después de la aplicación
de la carga. Es posible reconocer la morfología exacta de la
impresión de la indentación con alta resolución a nanoscala,
midiendo el valor actual del área Ap. Esta aproximación
permite considerar la presencia de apilamiento de material,
el cual es el principal tema para la nanoindentación a
nanoescala [29, 30], que es usualmente despreciada en el
modelo de Oliver y Pharr y lleva a una sobreestimación en el
valor de la dureza [4, 31, 32].
De acuerdo a la teoría de contacto elástico [35], el módulo
elástico de un material indentado por un indentador cónico
podría ser calculado desde la rigidez de la descarga S y el
área proyectada de contacto A a través de la ecuación
II. Nanoindentación
Donde E y n son el modulo elástico y la relación de Poisson
del material respectivamente, Ei y ni son los mismos
parámetros para el indentador. La forma de indentador más
usado para la nanoindentación es de tipo Berkovich, el cual
es una pirámide de tres caras con un ángulo total incluido
de 142.3o.
El concepto del ensayo de nanoindentación es utilizar un
indentador, cuyas propiedades mecánicas son bien conocidas,
para presionar en la superficie del material a analizar.
La alta sensitividad del actuador y el sensor son usados
simultáneamente para almacenar los datos experimentales
de desplazamiento contra carga aplicada durante el recorrido
de carga y descarga. De acuerdo a la distinta respuesta del
comportamiento de carga y descarga, la dureza y el módulo
reducido pueden ser estimados para diferentes materiales.
En la Fig. 1 se muestra esquemáticamente la carga versus
desplazamiento de un ciclo completo de carga y descarga.
(3)
Con b = 1. La rigidez finita del indentador es tomada en
cuenta para la definición del módulo reducido Er de acuerdo
a
(4)
Medidas realizadas por Oliver y Pharr [2] en un amplio
rango de materiales muestra que el comportamiento inicial
de la descarga para indentadores Berkovich es casi nunca
lineal y es más adecuado describirlo por una relación de ley
de potencias
(5)
Donde hf es la profundidad final después de completar
la descarga, a y m son constantes. El exponente m puede
variar de material a material en un rango de 1.25 a 1.51.
La rigidez S se obtiene de la derivada de la relación cargadesplazamiento evaluada en la profundidad de indentación
máxima h = hmax
.
(6)
Fig. 1 Curva típica de Carga – Desplazamiento en un ciclo
de nanoindentación.
Los métodos más utilizados para el análisis de datos de
indentación son basados en un problema de indentación
de punta rígida en un espacio semi-elástico. Sneddon [10]
estableció un procedimiento analítico, mostrando que para
cualquier indentador de geometría asimétrica, la relación
entre la carga aplicada P y el desplazamiento elástico h
puede ser expresado como
(2)
Donde m es 1, 1.5 y 2 para una punta cilíndrica, un paraboloide
y un cono respectivamente y a es una constante. Los
primeros experimentos en los cuales la carga de indentación
y la profundidad fueron continuamente medidos, fueron
realizados por Tabor y Stillwell [33, 34].
Con el fin de calcular el área de contacto proyectada, la
geometría del indentador necesita ser conocida a través de
una función de área A(h), que relaciona el área de la sección
transversal del indentador a la distancia del extremo h.
Un indentador Berkovich ideal tiene una función de área
cuadrada de A(h) = 24.5 h2.
En la Fig. 2 se muestra una sección transversal de una
superficie indentada bajo carga y después de ser removida
la carga, ilustrando que la recuperación elástica únicamente
toma lugar en la dirección de la profundidad de la carga
aplicada y el radio de impresión a se mantiene constante.
El total del desplazamiento h en cualquier tiempo durante
el ciclo de indentación puede ser escrito como h = hc + hs,
donde hc es la profundidad a lo largo del cual el contacto es
realizado (profundidad de contacto) y hs es el desplazamiento
de la superficie en el perímetro de contacto. Usando la
expresión de Sneddon [10] para el perfil de la superficie
fuera del área de contacto, Oliver y Pharr [2] obtuvieron la
siguiente expresión para la profundidad de contacto hc
Universidad Católica de Pereira
70
(7)
Donde e es un parámetro que depende de la geometría del
indentador, siendo 0.75 para un indentador Berkovich. Una
vez que la profundidad de contacto se conoce, el área de
contacto A(hc) puede ser evaluada y obtener el módulo de
Young y la rigidez con las ecu. (4) y ecu. (6) respectivamente.
Oliver y Pharr propusieron la siguiente función de área para
describir el área proyectada del indentador
(8)
Donde los coeficientes son constantes de ajuste, las cuales
son determinadas de una serie de indentaciones a varias
profundidades de una muestra de cuarzo fundido.
que la profundidad de contacto es superficial. Lo cual no
es razonable en la práctica. En consecuencia la función de
área de la ecuación (8) no es apropiada para describir el área
proyectada bajo profundidad de contacto superficial. En el
trabajo de Chao y otros[14] se buscó integrar el AFM con
un sistema de nanoindentación para evitar la limitación de la
función de área propuesta por Oliver y Pharr. Los resultados
muestran que el área proyectada obtenida desde el AFM
es significativamente diferente que el de la aproximación
de Oliver y Pharr, incrementándose esta última de forma
dramática, especialmente cuando la profundidad de contacto
se aproxima a cero. En la Fig. 3 se muestra como el área
proyectada obtenida por AFM es similar que el de una
geometría perfecta.
El primer término de esta ecuación describe la relación
entre la profundidad de contacto y el área proyectada para el
indentador perfecto.
Además, la dureza H, definida como la presión media del
material bajo carga, puede ser determinada usando
(9)
Fig. 3 Comparación
aproximaciones [14].
del
área
proyectada
de
diferentes
B. Corrección para materiales blandos
Fig. 2. Sección transversal del perfil de la superficie durante y
después de la indentación, muestra una interpretación gráfica del
perfil de contacto [36].
III. Diferentes correcciones al modelo de oliver
y pharr
A. Modificación de la función de área
Debido a la profundidad de contacto, la cual es
extremadamente pequeña en el ensayo de nanoindentación,
la geometría del indentador no es perfecta como
consecuencia de la redondez de la punta del indentador. Otra
consideración que hay que tener presente en el uso de la
ecuación (8), la magnitud del área proyectada es dominante
para el primero y segundo término bajo la profundidad de
contacto. Sin embargo, en el área proyectada será dominante
por los términos con órdenes menores a la unidad bajo
profundidad de contacto superficial. Este resultado en el área
proyectada comienza a incrementarlo o fluctuar mientras
Entre Ciencia e Ingeniería
Uno de los principales problemas de la técnica de
nanoindentación es que las propiedades mecánicas son
calculadas a partir de la curva de descarga usando la
teoría de Oliver y Pharr [5]. Este modelo toma en cuenta
deformaciones elásticas, pero desprecia otros fenómenos
tales como la adhesión, deformaciones plásticas. Por
lo tanto, el modelo de Oliver y Pharr es principalmente
correcto para materiales rígidos pero varios errores ocurren
en el caso de materiales conformados como los polímeros.
Los problemas concernientes a la adhesión, deformaciones
plásticas, son menos severos usando el AFM, puesto que las
curvas de carga y no las curvas de descarga, son usadas para
determinar las propiedades mecánicas. Usualmente, para
pequeñas fuerzas inmediatamente después del contacto (a lo
largo de la curva de carga), la interacción entre la punta y el
polímero no se ve afectado por la adhesión ni la deformación
plástica; únicamente la deformación elástica está presente y
teorías elásticas, por ejemplo la teoría de Herz [8] puede ser
usada.
La mayoría de los AFMs, además de tener los modos de
imagen tales como el modo de contacto y el intermitente,
también tiene el modo de fuerza, capaz de medir curvas
fuerza-distancia [37, 38]. Para generar la curva fuerza-
71
distancia, el cantiléver se mueve hacia la muestra por un
piezo-transductor. Después del contacto, la muestra es
indentada y el cantiléver se retira. El movimiento del piezo
y la deflexión del cantiléver son medidas. De acuerdo a las
dos direcciones del movimiento del cantiléver, la curva
distancia-fuerza es dividida en una parte de aproximación y
la otra de retirada.
La primera parte de la curva de aproximación es una
línea horizontal, llamada línea cero. En este momento
de la medida, la distancia entre la punta y la superficie es
grande y no mide ninguna deflexión porque las fuerzas que
actúan entre la punta y la superficie son muy débiles. Una
discontinuidad, se da un salto para el contacto, ocurre a una
distancia, donde el gradiente de la fuerza atractiva comienza
a ser más fuerte que la constante elástica del cantiléver, lo
que resulta en un salto de la punta sobre la superficie de
la muestra. La línea recta después de este chasquido es la
línea de contacto. Si la rigidez del cantiléver excede al de
la muestra, la punta actuará como un indentador y causa una
deformación. En este caso, la información referente a las
propiedades mecánicas de la muestra se puede determinar. La
deformación D puede ser estimada como la diferencia entre
el desplazamiento del piezo Z y la deflexión del cantilever d :
D=Z-d
(10)
Como la deflexión del cantiléver es siempre muy pequeña,
el cantiléver puede ser considerado como un resorte ideal.
La ley de Hooke puede ser usada para describir el cantiléver,
permitiendo el cálculo de la fuerza aplicada F con la siguiente
fórmula:
F = -kcd
(11)
Donde kc es la constante de resorte del cantiléver. Cuando
la deformación y la fuerza son conocidas, las propiedades
mecánicas pueden ser calculadas con la ayuda de la teoría
elástica continua. La selección de la teoría depende de las
propiedades físicas y de la geometría del sistema puntamuestra. El factor crucial es la relación entre la fuerza de
adhesión y la fuerza aplicada[39, 40]. Por lo tanto, la teoría
de Herz [8] puede ser usada para calcular el módulo de
Young. La punta se asume como una esfera o paraboloide
indentando un plano. La correspondiente fórmula de Herz
es:
(12)
Donde D es la deformación, F la fuerza, R el radio de
la punta y E* el módulo de Young reducido. El exponente
depende únicamente de la forma de la punta y la muestra,
cuyo valor es 2/3 únicamente para el caso de un indentador
esférico o parabólico sobre una superficie plana, E* está dado
por:
(13)
Donde E y n son el módulo de Young y la relación de
Poisson de la muestra y Et y nt son el módulo de Young y
la relación de Poisson de la punta del cantiléver. El modulo
es calculado por ajuste de la curva deformación-fuerza con
la ecuación de Herz. Con este procedimiento, en el trabajo
propuesto por Griepentrog y otros [41], se logró determinar
el módulo de Young con las curvas de fuerza-distancia para
dos tipos de polímeros, determinando el radio de la punta del
AFM necesario para una mayor precisión en los resultados.
C. Determinación de la forma y el radio de curvatura de
la punta de AFM.
En algunos trabajos se ha estudiado el efecto de las
características de la punta en la medida de la dureza. En
uno de ellos [19], se estudió el efecto de la forma y el
radio de curvatura de la punta en la medida de la dureza
en la nanoindentación por AFM. Se realizó el estudio con
diferentes formas de puntas de indentadores con el fin de
cuantificar como la medida de la dureza es afectada por dos
parámetros importantes: i) el ángulo de la punta [42] y ii) el
radio de curvatura de la punta del indentador. Un modelo de
elementos finitos fue usado también para comprender mejor
el proceso de indentación. En paralelo a una aproximación
teórica basada en la teoría de nanoindentación [43], ha sido
optimizado para un indentador desgastado. Todas estas
aproximaciones llevaron a deducir una relación teórica
en la cual enlaza la medida de la dureza con la forma del
indentador y el radio de curvatura de la punta.
D. Calibración de la fuerza aplicada del cantiléver del
AFM.
La nanoindentación por AFM requiere un proceso de
calibración complejo de la fuerza para el cual el conocimiento
de cantidades tales como constante del resorte del cantiléver,
el factor de sensitividad del fotodetector y la geometría de la
punta, los cuales son necesarios para transformar los datos
de las curvas de nanoindentación fuerza – distancia [44]. En
la figura 4 se muestra una representación simplificada del
proceso de indentación con una punta piramidal montado en
un cantiléver para AFM. La fuerza aplicada F es controlada
a través del cambio en el voltaje del fotodetector Vpd debido
a la deflexión del cantiléver Zc alineado verticalmente con la
fuerza, como se muestra en la figura, tal que
(14)
Donde k representa la constante del resorte normal del
cantiléver. La correspondiente profundidad de penetración
es obtenida por
(15)
Donde h es la profundidad de penetración con respecto al
punto de contacto inicial, el cual incluye deformación elástica
y deformación plástica, y Zp es la posición del piezo-escaner
durante el desplazamiento hacia arriba desde el punto de
contacto a Zpo. El factor de sensitividad S consiste en
(16)
Universidad Católica de Pereira
72
el cual es obtenido por la presión de la punta que ejerce
sobre un material duro de referencia como el diamante
[45], mientras que se almacena la respuesta (Zp, Vpd),
y asumiendo que la penetración de la punta durante la
calibración es despreciable con respecto a Zc, la ecu. (15) se
transforma para este caso en
(17)
Las dos principales fuentes de incertidumbre en el
protocolo estándar para medida de dureza en sustratos duros
usando nanoindentación por AFM son las siguientes: i)
Determinación de la constantes k de la ec. (14). Un amplio
número de estudios han sido direccionados para resolver este
inconveniente, han sugerido diferentes técnicas, generando
más o menos incertidumbre en el cálculo de este parámetro
[46, 47]. ii) Incertidumbre sistemático en la determinación
del factor de sensitividad S, debido a dos razones, la primera
involucra la no linealidad de la relación del voltaje del
fotodetector – deflexión, el cual puede surgir al momento
de generar amplias deflexiones del cantiléver [48, 49], y la
segunda, la suposición de indentación cero en la muestra de
referencia lo cual puede no ser correcto para cantiléver con
k>20 N/m, aún si la interacción punta-superficie involucra
puramente deformación elástica durante la calibración [24].
Sin embargo, diferentes métodos han sido propuestos
para determinar el área proyectada de contacto en la medida
de dureza por AFM, el cual varía de escanear directamente
huella indentada [50-52], al tomar en cuenta el área de la
sección transversal [50, 53].
es tomar en cuenta la deformación punta-superficie durante
la calibración y la morfología actual de la punta. Usan la
simulación por elementos finitos para determinar la constante
de resorte del cantiléver y para comparar el área proyectada
con la obtenida con el modelo.
En el trabajo realizado por Calabri y otros [19] se estudió
el efecto de la forma y radio de curvatura de la punta en la
medida de la dureza usando el AFM para la nanoindentación.
Un proceso de deconvolución geométrica ha sido utilizado
con el fin de corregir el error sistemático en relación con el
efecto del radio de curvatura de la punta.
III. Conclusiones
En el artículo se muestran algunos modelos para evaluar
la dureza en superficies y películas delgadas, presentando
algunas aproximaciones y consideraciones que se deben
tener en cuenta al momento de realizar el ensayo de dureza
usando el AFM. La mayoría de los trabajos referenciados,
consideran de importancia significativa el conocimiento
preciso de la forma y características geométricas del
cantiléver, al momento de obtener resultados cuantitativos
de dureza y módulo de Young. En los diferentes modelos se
tienen contribuciones tanto elásticas como plásticas.
Agradecimientos
Los autores agradecen a la Universidad Católica de Pereira
por su apoyo en esta investigación a través de la convocatoria
014. Al Tecnoparque SENA nodo Pereira en la línea de
Biotecnología y Nanotecnología por permitir el uso del
AFM.
Referencias
[1]
[2]
[3]
[4]
[5]
Fig. 4 Representación simplificada de la nanoindentación por AFM
con punta de diamante cúbico montado en un cantiléver [24].
En el trabajo propuesto por Sansoz y Gang [24], plantean
una metodología para evaluar la fuerza aplicada usando
una punta de diamante montada sobre un cantiléver de
zafiro con un valor alto de la constante del resorte. Los
autores mencionan que lo novedoso de esta aproximación
Entre Ciencia e Ingeniería
[6]
[7]
[8]
[9]
M. F. Doerner and W. D. Nix, “A method for interpreting the data
from depth-sensing indentation instruments,” Journal of Materials
Research, vol. 1, pp. 601-609, 1986.
W. C. Oliver and G. M. Pharr, “An improved technique for determining
hardness and elastic modulus using load and displacement sensing
indentation experiments,” Journal of Materials Research, vol. 7, pp.
1564-1583, 1992.
W. C. Oliver and G. M. Pharr, “Measurement of hardness and elastic
modulus by instrumented indentation: Advances in understanding
and refinements to methodology,” Journal of Materials Research,
vol. 19, pp. 3-20, 2004.
G. M. Pharr, “Measurement of mechanical properties by ultra-low
load indentation,” Materials Science and Engineering: A, vol. 253,
pp. 151-159, 9/30/ 1998.
G. M. Pharr, W. C. Oliver, and F. R. Brotzen, “On the generality of
the relationship among contact stiffness, contact area, and elastic
modulus during indentation,” Journal of Materials Research, vol. 7,
pp. 613-617, 1992.
I. Jauberteau, M. Nadal, and J. L. Jauberteau, “Atomic force
microscopy investigations on nanoindentation impressions of some
metals: effect of piling-up on hardness measurements,” Journal of
Materials Science, vol. 43, pp. 5956-5961, 2008/09/01 2008.
J. Boussinesq, “Application des Potentials `a l’´equilibre et du
Mouvememt des Solider ´elastiques,” Gauthier-Villars, Paris, vol.
45, p. 108, 1885.
H. Hertz, “Translated and reprinted in English in “Hertz’s
Miscellaneous Papers”,” J. Reine Angew. Math, vol. 92, p. 156, 1881.
H. Hertz, “Verhandlungen des Vereins zur Bef¨orderung des
Gewerbe Fleisses,” Translated and reprinted in English in “Hertz’s
73
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
[27]
[28]
Miscellaneous Papers” (Macmillan & Co, London, 1896) Ch. 6., vol.
61, p. 410, 1882.
I. N. Sneddon, “The relation between load and penetration in the
axisymmetric boussinesq problem for a punch of arbitrary profile,”
International Journal of Engineering Science, vol. 3, pp. 47-57, 5//
1965.
I. 14577-1, “Metallic Materials-Instrumented Indentation Test for
Hardness and Materials Parameters “ in Part 1: Test Method, ed,
2002.
I. 14577-2, “Metallic Materials-Instrumented Indentation Test for
Hardness and Materials Parameters,” in Part 2: Verification and
Calibration of Testing Machines, ed, 2002.
I. 14577-3, “Metallic Materials-Instrumented Indentation Test for
Hardness and Materials Parameters,” in Part 3: Calibration of
Reference Blocks, ed, 2002.
L.-P. CHAO, J.-S. HSU, and Y.-D. LAU, “Measurement Of
Nanomechanical Properties Of Thin Films By Integrating
Nanoindentation System And Atomic Force Microscope,”
International Journal of Nanoscience, vol. 06, pp. 57-64, 2007.
M. Finke, J. A. Hughes, D. M. Parker, and K. D. Jandt, “Mechanical
properties of in situ demineralised human enamel measured by AFM
nanoindentation,” Surface Science, vol. 491, pp. 456-467, 10/1/
2001.
T. Kocourek, M. Růžek, M. Landa, M. Jelínek, J. Mikšovský, and
J. Kopeček, “Evaluation of elastic properties of DLC layers using
resonant ultrasound spectroscopy and AFM nanoindentation,”
Surface and Coatings Technology, vol. 205, Supplement 2, pp.
S67-S70, 7/25/ 2011.
P. Milovanovic, J. Potocnik, D. Djonic, S. Nikolic, V. Zivkovic,
M. Djuric, et al., “Age-related deterioration in trabecular bone
mechanical properties at material level: Nanoindentation study of the
femoral neck in women by using AFM,” Experimental Gerontology,
vol. 47, pp. 154-159, 2// 2012.
E. A-Hassan, W. F. Heinz, M. D. Antonik, N. P. D’Costa, S.
Nageswaran, C.-A. Schoenenberger, et al., “Relative Microelastic
Mapping of Living Cells by Atomic Force Microscopy,” Biophysical
Journal, vol. 74, pp. 1564-1578, 1998.
L. Calabri, N. Pugno, C. Menozzi, and S. Valeri, “AFM
nanoindentation: tip shape and tip radius of curvature effect on the
hardness measurement,” Journal of Physics: Condensed Matter, vol.
20, p. 474208, 2008.
B. Du, J. Zhang, Q. Zhang, D. Yang, T. He, and O. K. C. Tsui,
“Nanostructure and Mechanical Measurement of Highly Oriented
Lamellae of Melt-Drawn HDPE by Scanning Probe Microscopy,”
Macromolecules, vol. 33, pp. 7521-7528, 2000/10/01 2000.
M. Mareanukroh, R. K. Eby, R. J. Scavuzzo, G. R. Hamed, and J.
Preuschen, “Use of Atomic Force Microscope as a Nanoindenter to
Characterize Elastomers,” Rubber Chemistry and Technology, vol.
73, pp. 912-925, 2000.
Z. Shan and S. K. Sitaraman, “Elastic–plastic characterization of thin
films using nanoindentation technique,” Thin Solid Films, vol. 437,
pp. 176-181, 8/1/ 2003.
E. Tomasetti, R. Legras, and B. Nysten, “Quantitative approach
towards
the
measurement
of
polypropylene/(ethylenepropylene) copolymer blends surface elastic properties by AFM,”
Nanotechnology, vol. 9, p. 305, 1998.
F. Sansoz and T. Gang, “A force-matching method for quantitative
hardness measurements by atomic force microscopy with diamondtipped sapphire cantilevers,” Ultramicroscopy, vol. 111, pp. 11-19,
12// 2010.
C. A. Clifford and M. P. Seah, “Quantification issues in the
identification of nanoscale regions of homopolymers using modulus
measurement via AFM nanoindentation,” Applied Surface Science,
vol. 252, pp. 1915-1933, 12/15/ 2005.
J. Lee, C. Y. Kim, M. Joo, and K. Park, “Uncertainty compensation
methods for quantitative hardness measurement of materials using
atomic force microscope nanoindentation technique,” Thin Solid
Films, vol. 546, pp. 448-452, 11/1/ 2013.
B. Bhushan and V. N. Koinkar, “Nanoindentation hardness
measurements using atomic force microscopy,” Applied Physics
Letters, vol. 64, pp. 1653-1655, 1994.
J. R. Withers and D. E. Aston, “Nanomechanical measurements with
[29]
[30]
[31]
[32]
[33]
[34]
[35]
[36]
[37]
[38]
[39]
[40]
[41]
[42]
[43]
[44]
[45]
[46]
[47]
[48]
[49]
[50]
AFM in the elastic limit,” Advances in Colloid and Interface Science,
vol. 120, pp. 57-67, 6/30/ 2006.
D. Beegan, S. Chowdhury, and M. T. Laugier, “Work of indentation
methods for determining copper film hardness,” Surface and
Coatings Technology, vol. 192, pp. 57-63, 3/1/ 2005.
K. Miyake, S. Fujisawa, A. Korenaga, T. Ishida, and S. Sasaki,
“The Effect of Pile-Up and Contact Area on Hardness Test by
Nanoindentation,” Japanese Journal of Applied Physics, vol. 43, p.
4602, 2004.
W. J. Poole, M. F. Ashby, and N. A. Fleck, “Micro-hardness
of annealed and work-hardened copper polycrystals,” Scripta
Materialia, vol. 34, pp. 559-564, 2/15/ 1996.
R. Saha, Z. Xue, Y. Huang, and W. D. Nix, “Indentation of a soft
metal film on a hard substrate: strain gradient hardening effects,”
Journal of the Mechanics and Physics of Solids, vol. 49, pp. 19972014, 9// 2001.
D. Tabor, A Simple Theory of Static and Dynamic Hardness vol. 192,
1948.
N. A. Stilwell and D. Tabor, “Elastic Recovery of Conical
Indentations,” Proceedings of the Physical Society, vol. 78, p. 169,
1961.
K. L. Johnson, Contact Mechanics. United Kingdom: Cambridge
University Press, 1985.
N. J. M. Carvalho and J. T. M. DeHosson, “Microstructure
investigation of magnetron sputtered WC/C coatings deposited on
steel substrates,” Thin Solid Films, vol. 388, pp. 150-159, 6/1/ 2001.
B. Cappella and G. Dietler, “Force-distance curves by atomic force
microscopy,” Surface Science Reports, vol. 34, pp. 1-104, // 1999.
H.-J. Butt, B. Cappella, and M. Kappl, “Force measurements with the
atomic force microscope: Technique, interpretation and applications,”
Surface Science Reports, vol. 59, pp. 1-152, 10// 2005.
S. A. Chizhik, Z. Huang, V. V. Gorbunov, N. K. Myshkin, and V.
V. Tsukruk, “Micromechanical Properties of Elastic Polymeric
Materials As Probed by Scanning Force Microscopy,” Langmuir, vol.
14, pp. 2606-2609, 1998/05/01 1998.
V. V. Tsukruk, Z. Huang, S. A. Chizhik, and V. V. Gorbunov, “Probing
of Micromechanical Properties of Compliant Polymeric Materials,”
Journal of Materials Science, vol. 33, pp. 4905-4909, 1998/10/01
1998.
M. Griepentrog, G. Krämer, and B. Cappella, “Comparison of
nanoindentation and AFM methods for the determination of
mechanical properties of polymers,” Polymer Testing, vol. 32, pp.
455-460, 5// 2013.
L. Calabri, N. Pugno, A. Rota, D. Marchetto, and S. Valeri,
“Nanoindentation shape effect: experiments, simulations and
modelling,” Journal of Physics: Condensed Matter, vol. 19, p.
395002, 2007.
N. M. Pugno, “A general shape/size-effect law for nanoindentation,”
Acta Materialia, vol. 55, pp. 1947-1953, 4// 2007.
R. J. Emerson Iv and T. A. Camesano, “On the importance of
precise calibration techniques for an atomic force microscope,”
Ultramicroscopy, vol. 106, pp. 413-422, 3// 2006.
S. Garcia-Manyes, A. G. Güell, P. Gorostiza, and F. Sanz,
“Nanomechanics of silicon surfaces with atomic force microscopy:
An insight to the first stages of plastic deformation,” The Journal of
Chemical Physics, vol. 123, p. 114711, 2005.
C. A. Clifford and M. P. Seah, “The determination of atomic force
microscope cantilever spring constants via dimensional methods for
nanomechanical analysis,” Nanotechnology, vol. 16, p. 1666, 2005.
J. M. Neumeister and W. A. Ducker, “Lateral, normal, and longitudinal
spring constants of atomic force microscopy cantilevers,” Review of
Scientific Instruments, vol. 65, pp. 2527-2531, 1994.
E. C. C. M. Silva and K. J. V. Vliet, “Robust approach to maximize the
range and accuracy of force application in atomic force microscopes
with nonlinear position-sensitive detectors,” Nanotechnology, vol.
17, p. 5525, 2006.
L. Y. Beaulieu, M. Godin, O. Laroche, V. Tabard-Cossa, and P.
Grütter, “A complete analysis of the laser beam deflection systems
used in cantilever-based systems,” Ultramicroscopy, vol. 107, pp.
422-430, 4// 2007.
T. Bao, P. W. Morrison, and W. Woyczynski, “AFM Nanoindentation
as a Method to Determine Microhardness of Hard Thin Films,” MRS
Universidad Católica de Pereira
74
Online Proceedings Library, vol. 517, pp. null-null, 1998.
[51] R. C. S. Graça, R. Vilar, “Using Atomic Force Microscopy to Retrieve
Nanomechanical Surface Properties of Materials,” Materials Science
Forum, vol. 514-516, pp. 1598-1602, 2006.
[52] M. Lucas, K. Gall, and E. Riedo, “Tip size effects on atomic force
microscopy nanoindentation of a gold single crystal,” Journal of
Applied Physics, vol. 104, p. 113515, 2008.
[53] Y. D. Yan, T. Sun, and S. Dong, “Study on effects of tip geometry on
AFM nanoscratching tests,” Wear, vol. 262, pp. 477-483, 2/4/ 2007.
Diego Fernando Arias Mateus Ingeniero Químico y Magister en Física de
la Universidad Nacional de Colombia sede Manizales y PhD en Ingeniería
de la Universidad Nacional de Colombia sede Medellín. Actualmente es
docente de Ciencias Básicas y pertenece al grupo de investigación GEMA
de la Universidad Católica de Pereira.
Diego Pérez Ingeniero Mecánico y aspirante a Magister en Ingeniería
Mecánica de la Universidad Tecnológica de Pereira, actualmente joven
investigador COLCIENCIAS y pertenece al grupo de investigación
GIMAV de la Universidad Tecnológica de Pereira.
Juan Manuel González Ingeniero Físico, Magister en Ciencias-Física de
la Universidad Nacional de Colombia sede Manizales y PhD en Ingeniería
de Materiales de la Universidad del Valle. Actualmente Líder de la línea
de Biotecnología y Nanotecnología del Tecnoparque SENA-Nodo Cali
e investigador del Grupo de Investigación en Desarrollo de Materiales
y Procesos GIDEMP del Centro ASTIN y del Grupo de Investigación
Recubrimientos Duros y Aplicaciones Industriales RDAI de la Universidad
del Valle.
Entre Ciencia e Ingeniería
75
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 75 - 83
El diodo Schottky como atenuador del efecto
Seebeck en una celda Peltier para un control PID
de temperatura1
The Schottky diode as attenuator of the Seebeck
effect on a Peltier cell for a PID temperature
control
J.F. Leal, M.M. León y S.B. Sepúlveda
Recibido Junio 15 de 2015– Aceptado Septiembre 23 de 2015
Resumen - Se desarrolló un sistema de control de
temperatura y humedad relativa mediante el microcontrolador
PIC16F877A, este microcontrolador, mediante la técnica
de PWM de una señal de 25kHz, ejerce control sobre la
celda Peltier TEC1-12706, y además efectúa un control ON/
OFF sobre un humidificador ultrasónico. Para el control
de temperatura se diseñó un controlador PID discreto por
medio de la herramienta ident y la herramienta controller
PID de MATLAB. Se concluyó que la celda Peltier tiene un
rendimiento termoeléctrico total del 33% y que aplicando la
técnica de control PWM se producen el efecto Peltier y el efecto
Seebeck; se determinó que el efecto Seebeck causa un deterioro
sustancial en los enlaces moleculares de los termoelementos
1
Producto derivado del proyecto de investigación “Sistema de control
y temperatura para una cámara de maduración de quesos”. Presentado
por el Grupo de Investigación y Desarrollo en Microelectrónica Aplicada
(GIDMA), de la Universidad Francisco de Paula Santander.
J.F. Leal Ingeniero Electrónico, de la universidad Francisco de Paula
Santander, Cúcuta (Colombia); email: [email protected].
M.M. León Ingeniero Electrónico, de la universidad Francisco de Paula
Santander, Cúcuta (Colombia); email: [email protected]
S.B. Sepúlveda docente adscrito al Departamento de Electricidad
y Electrónica de la Universidad Francisco de Paula Santander, Cúcuta
(Colombia); email: [email protected].
que conforman la celda Peltier. Sin embargo, se propone el
diodo Schottky 15SQ045 como una solución eficaz y efectiva
para anular los daños que produce el efecto Seebeck en la celda
Peltier.
Palabras clave - celda Peltier, PWM, efecto Seebeck, control
PID
Abstract - a temperature and humidity control system using
a PIC16F877A microcontroller was developed. The system uses
a 25 kHz PWM signal to control a TEC1-12706 Peltier cell. On
the other hand, we made an ON/OFF control on the ultrasonic
humidifier in order to regulate the relative humidity. To control
the temperature, a discrete PID controller by using ident
and controller PID tools from Matlab software was designed.
Besides, we analyzed the behavior of the Peltier cell when a
PWM signal is applied to it; the conclusion was that the TEC112706 Peltier cell has a total thermoelectric performance of
33% and both, Seebeck and Peltier effects are present when
PWM is used; it was determined that the Seebeck effect causes
a significant degradation on the molecular bonds in the thermoelements of the Peltier cell; this undesirable effect reduces the
lifetime of the cell to a few hours. However, we propose the
15SQ045 Schottky diode as an effective solution to mitigate the
damages that the Seebeck effect may cause to the Peltier cell.
Key words - Peltier cell, PWM, Seebeck effect, PID control.
Universidad Católica de Pereira
76
E
I. Introducción
L proceso para la elaboración del queso está conformado
por una serie de etapas [1], entre las cuales se destaca la
etapa de maduración; en ella se producen una serie de cambios
físico-químicos que determinan las características del mismo
[2], [3], estas características en gran medida son producto de
las condiciones ambientales a las que se encuentra expuesto
el queso [1]. Las condiciones ambientales inapropiadas para
la maduración de quesos obligan a emplear una cámara de
maduración donde se ejecute el control de la temperatura y
humedad relativa [2], entre otras variables de menor impacto
en la etapa de maduración [4], [5]. En busca de lo anterior,
se pretende el uso de nuevas tecnologías, que ofrezca
menos consumo de energía, menos costos de adquisición y
mantenimiento de las que tradicionalmente se utilizan para
refrigeración.
El dispositivo elegido para el proceso de enfriamiento de
la cámara es la celda Peltier [5], ya que por su propiedad
termoeléctrica, fiabilidad, durabilidad y sencillez se ha
convertido en un dispositivo para aplicaciones en equipos
comerciales [6]. Algunos estudios se han realizado para la
caracterización y modelamiento de la celda Peltier [7]-[10]
desde diversas teorías.
En [8] se realizó el control de una celda Peltier mediante la
variación de su corriente DC para determinar su coeficiente
de rendimiento (COP) durante el proceso de enfriamiento,
este estudio concluyó que es conveniente que la celda
Peltier opere en niveles bajos de potencia; sin embargo,
esta situación es inconveniente con respecto a los requisitos
operativos orientados [8].
Otra técnica de control utilizada para la celda Peltier es la
modulación del ancho de pulso (PWM) de una señal de periodo
constante; algunos autores emplean diversos materiales para
determinar su comportamiento termodinámico y ofrecer
una información útil para el diseño de controladores de
temperatura [7]. Por otra parte, en [11] se realizó un sistema de
control de temperatura conformado por un PC para desarrollar
un controlador robusto no lineal y un microcontrolador para
establecer una comunicación serial (RS232C) con el PC y
generar una señal PWM que actúe sobre la celda Peltier; la
respuesta de la temperatura para un set point con DT=3˚C,
tiene las siguientes características: error=0.1˚C, %sobrepeso=0,
leficaz=1.5A, testabilizacion= 400s. En conclusión, es un sistema de
control de temperatura que tiene alta precisión, veloz y muy
estable [11]. El sistema de control de temperatura presentado
en este trabajo se diseñó únicamente para el proceso de
enfriamiento, el cual se fundamenta en un controlador PID
discreto y en la modulación del ancho de pulso de una señal
con frecuencia de 25kHz generada mediante el módulo CCP
del microcontrolador PIC16F877. La respuesta transitoria
del control de temperatura se caracteriza por presentar
siempre sobrepaso, debido al diseño del controlador PID y
a las condiciones de operación de la cámara de maduración;
aunque es importante destacar que en estado estable la
respuesta presenta un error = 0˚C .
Entre Ciencia e Ingeniería
Lo que se pretende destacar en este trabajo es el
comportamiento de la celda Peltier, cuando es controlada
mediante la técnica PWM de una señal y sus repercusiones a
corto plazo, con la finalidad de aportar a futuras aplicaciones
en las que se desee la celda Peltier utilizar e indicar una
solución práctica y eficaz cuando se presenten averías en
ella.
II. Materiales y métodos
A. Arquitectura y funcionamiento del sistema
El sistema de control de temperatura y humedad relativa
está compuesto fundamentalmente por los dispositivos que
se observan en la Fig. 1, además de diversos elementos
necesarios para el correcto funcionamiento de estos
dispositivos; su ensamblaje se realizó en la parte superior de
la cámara como se aprecia en la Fig. 2b; igualmente, en la
Fig. 2a se expone la cámara diseñada y construida según los
parámetros requeridos para la maduración de queso.
Fig. 1. Arquitectura general del sistema de control de temperatura
y humedad relativa.
Fig. 2. (a) Cámara de maduración. (b) Ensamblaje: (1) LCD 16x2,
(2) PIC16F877A, (3) Etapa de potencia, (4) Disipadores de calor.
El PIC16F877 y el sensor AM2302 establecen una
comunicación maestro-esclavo mediante un único bus de
datos para los valores de humedad relativa y temperatura (en
grados Celsius); culminada la correcta transmisión de datos,
el PIC se encarga de calcular el error de la temperatura y el
valor del controlador discreto PID, para posteriormente ser
cargado al módulo CCP del PIC, que en este caso funciona
en modo PWM, con una frecuencia de 25kHz. La resolución
(en bits) de la señal PWM [12] se determina en la ecuación
(1), por lo tanto el valor entero que es cargado al módulo
CCP debe estar comprendido entre 0 y 800=29,6438 bit, lo que
significa que se establecen 800 puntos de ajuste para la
potencia de las celdas Peltier.
77
(1)
En la etapa de potencia de la celda Peltier se utilizó el
MOSFET IRFZ44N, ya que conmuta a altas frecuencias y es
controlado por tensión entre sus pines de compuerta y fuente.
Además, se utilizó un circuito integrado de colector abierto
74LS05 para asegurar la correcta saturación y corte del
MOSFET, lo que permite que sobre la celda Peltier se ejerza
control de su tensión y consecuentemente de su potencia.
Cuando el valor calculado por el controlador PID es
constante, el error es cero y la temperatura en la cámara
alcanza el valor exacto de la temperatura de ajuste; a partir
de allí se ejecuta simultáneamente el control ON/OFF de la
humedad relativa y el control PID de la temperatura (ver Fig.
4).
El diagrama de bloques del sistema de control de
temperatura y HR se observa en la Fig. 3 y el algoritmo de
programación del PIC 16F877 se representa en la Fig. 4. El
software utilizado para la programación del PIC 16F877 es
el compilador PIC C (Compiler) v4.130 (CCS) mediante el
lenguaje de programación en C desarrollado exclusivamente
para microcontroladores de Microchip Technology Inc.
Fig. 3. Diagrama de bloques del sistema de control de temperatura
y humedad relativa.
Fig. 4. Algoritmo de programación del PIC16F877A para el sistema
de control.
B. Características de los dispositivos
1) Sensor AM2302
El sensor AM2302 utiliza un único bus simplificado
(pin SDA) para la comunicación y sincronización con el
microcontrolador, su formato de comunicación se representa
en la Fig. 5.
Para acceder al sensor se debe seguir estrictamente
el protocolo de comunicación maestro-esclavo como se
observa en la Fig. 6. El PIC como maestro debe iniciar la
comunicación sincronizando los tiempos Tbe (1ms) y Tgo (30
μS), después el sensor debe responder con Trel (80 μS) y Treh
(80 μS) e inmediatamente envía los 40 bits de datos que se
interpretan según la sincronización de Tlow (50 μS), TH0 (26
μS) y TH1 (70 μS), al terminar la transmisión el sensor libera
el bus con Ten (50 μS)
Fig. 5. Formato de comunicación del sensor AM2302.
Fig. 6. Sincronización para la comunicación del sensor AM2302.
Para verificar la transmisión de datos (bits) se tiene un byte
de paridad que es la suma de 4 bytes, 2 bytes de humedad y
2 bytes de temperatura. El fabricante del sensor aclara que
los datos de temperatura y de humedad relativa enviados al
microcontrolador son siempre sus últimos valores medidos y
Universidad Católica de Pereira
78
para que el microcontrolador obtenga una lectura continua y
correcta del sensor, se debe tomar un intervalo de mínimo 2
segundos entre cada lectura. El algoritmo de programación
del PIC 16F877 para la lectura del sensor AM2302 se
observa en la Fig. 7.
Fig. 8. Módulo Peltier implementado.
La celda Peltier o célula termoeléctrica (TEC), son
dispositivos compuestos por varios termopares (TC)
térmicamente conectadas en paralelo y eléctricamente en
serie [10]. Un termopar [7] está compuesto por un material
semiconductor tipo N y un material tipo P llamados
generalmente termoelementos, los cuales son unidos en uno
de sus extremos con un material conductor; en un termopar
pueden ocurrir tres efectos: Seebeck, Peltier y Thomson [9].
Cuando a la celda Peltier se le suministra corriente continua
ocurre el efecto Peltier, por lo tanto la celda actúa como
enfriador. Por el contrario, cuando a la celda Peltier se le
suministra calor ocurre el efecto Seebeck, entonces la celda
actúa como un generador eléctrico.
El balance de energía calorífica presente en la celda
Peltier se observa en la Fig. 9 [8].
Fig. 7. Algoritmo de programación del PIC16F877A para la lectura
del sensor AM2302.
2) Módulo Peltier
El módulo Peltier implementado consta de una celda
Peltier TEC1-12706, con dos disipadores (uno en cada lado de
la celda) y un conductor térmico entre la celda y el disipador
del lado frío para separar físicamente los disipadores y evitar
transferencia de calor (ver Fig. 8). De manera experimental
se determinaron las características eléctricas nominales de
la celda, las cuales son 3.5A y 12Vdc. El diferencial térmico
y la vida útil de la celda Peltier indicado por el fabricante
son respectivamente de 66 ºC y 200000 horas; sin embargo,
el diferencial de temperatura que se obtuvo con el módulo
Peltier implementado es de 47 ºC, tomando como referencia
la temperatura del disipador del lado caliente.
Entre Ciencia e Ingeniería
Fig. 9. Flujos de calor presentes en la celda Peltier.
En general, el flujo total de calor eliminado en el lado frío
y bombeado al lado caliente es [7]:
(2)
(3)
Donde a es el coeficiente de Seebeck (V/K), Kt y R son,
respectivamente, la conductancia térmica y la resistencia
eléctrica del módulo; Th y Tc son la temperatura en el
lado caliente y la temperatura en el lado frío del módulo
termoeléctrico.
79
La potencia total transferida se obtiene restando las
ecuaciones (2) y (3):
(4)
Lo cual es equivalente a la energía eléctrica necesaria para
accionar el dispositivo, P=VI [7]. La potencia suministrada
se convierte entonces en dos fuentes de calor diferentes: el
flujo de calor termoeléctrico (PTE), proporcional a la corriente
eléctrica, y la generación de calor por efecto de Joule (PRTH),
proporcional al cuadrado de la corriente.
Para el proceso de enfriamiento debe ocurrir el efecto
Peltier, el cual se fundamenta en el movimiento de electrones
a través de los TC que conforman la celda Peltier (ver Fig.
10). [13] Cuando un electrón pasa de un nivel energético
mayor (termoelemento tipo N) a un nivel energético inferior
(termoelemento tipo P), libera energía (lado caliente). De
igual manera, [5] si un electrón pasa de un nivel energético
inferior (termoelemento tipo P) a un nivel energético mayor
(termoelemento tipo N), absorbe energía (lado frío). Al
invertir la dirección de la corriente, cambia el sentido de la
transferencia de calor, es decir, el lado frío se convierte en el
lado caliente y viceversa [13].
99.57% a un sistema de 3 polos y además determinó su
función de transferencia, la cual se expresa en la ecuación
(5).
(5).
Los 3 polos que se encuentran en la función de transferencia
de la cámara de maduración son reales (negativos) e iguales,
por lo tanto, se supone que el sistema de enfriamiento es
críticamente amortiguado. El diseño del controlador PID
se realizó mediante el bloque controller PID de Simulink
(entorno de programación visual de Matlab), este bloque
calcula las constantes de proporcionalidad, integración y
derivación del controlador y algunos parámetros relevantes
de su respuesta transitoria. Para obtener la respuesta de
control que se observa en la Fig. 11 se utilizó el método
heurístico, ubicando el margen de ganancia en 39,8 y el
ángulo de fase del controlador en 60°, debido a la proyección
de funcionamiento que tiene la cámara de maduración,
aunque estos valores son ajustables para conseguir la
respuesta deseada.
El sistema de enfriamiento de la cámara de maduración
(volumen interno 56000cm3) está compuesto por 4 módulos
Peltier; la respuesta del sistema alcanzó a disminuir la
temperatura en 27℃, es decir, el diferencial máximo
de temperatura de la cámara es de 27℃ respecto de la
temperatura ambiente, en un tiempo aproximado de 1 hora
y 40 minutos.
Fig. 11. Respuesta del controlador PID del bloque controller PID Simulink de MATLAB R2013a.
III. Evaluación y resultados
A. La celda Peltier usando la técnica de PWM
Fig. 10. Efecto Peltier en la celda TEC1-12706.
La Fig. 12a corresponde a la señal de tensión en la celda
Peltier, esta señal de tensión presenta un rizado de 11 Vp-p
cuando la señal PWM cambia ha estado bajo, el rizado
indica que la celda Peltier se comporta como un generador
eléctrico, es decir ocurre el efecto Seebeck.
Los análisis y modelos planteados en [7]- [10] para la
celda Peltier involucran complejos estudios, los cuales no
se ejecutaron en la celda TEC1-12706 debido a la falta de
información sobre ella y a los requerimientos que exigen
estos estudios.
3) Controlador PID
El modelamiento de la cámara se realizó mediante
el software MATLAB R2013a (v.8.1.0.604) utilizando
la herramienta ident. Esta herramienta estableció que la
respuesta del sistema de enfriamiento se aproxima en un
Universidad Católica de Pereira
80
B. El diodo Schottky como atenuador del efecto Seebeck
El Diodo Schottky 15SQ045 está diseñado para funcionar
en altas frecuencias y con baja tensión de polarización directa.
Este dispositivo funciona como diodo de rueda libre y es
conectado en antiparalelo a la celda Peltier, lo que permite
que la corriente generada por el efecto Seebeck mantenga la
misma dirección establecida cuando la señal PWM está en
alto, evitando que se genere un movimiento bidireccional de
electrones y fonones, y así, equilibrar la temperatura en la
celda Peltier.
Fig. 12. (a) Señal de tensión en la celda Peltier sin el diodo
Schottky. (b) Desempeño térmico de la celda TEC1-12706 para
distintas frecuencias de control PWM en un periodo de 10 horas.
En general, el efecto Seebeck se debe a dos contribuciones:
la difusión de electrones convencional y la contribución
de fonones-arrastre [14]. La contribución por difusión es
causada por la variación espacial de la ocupación electrónica
por la presencia de un gradiente térmico, mientras que la
contribución de fonones-arrastre surge por la interacción
entre vibraciones en las redes anisotrópicas y portadores
de carga móviles; estas dos contribuciones tienen relación
proporcional con el diferencial de temperatura obtenida en
la celda Peltier [15].
Al originarse el efecto Seebeck la absorción de energía
que se generaba en el lado frío se disipa rápidamente, [16]
debido a que en el termoelemento tipo N ocurre el proceso
de difusión de electrones ( [17] los electrones del extremo
caliente contienen mayor energía y adquieren velocidad
para dirigirse hacia el lado frío) y en el termoelemento
tipo P la difusión de huecos también se dirige hacia el lado
frío [5]; después de algún tiempo, se alcanza un estado
de equilibrio, donde el campo eléctrico creado impide un
aumento adicional de esta difusión de portadores [17], [15].
En conclusión, la difusión de electrones propiciado por el
efecto Seebeck es contraria a la dirección de movimiento de
los electrones establecida para el enfriamiento del sistema,
este es el motivo por cual se observan picos negativos en la
Fig. 12a.
El fenómeno anteriormente descrito, hará que se tenga un
movimiento bidireccional no armónico de los portadoresfonones en los materiales termoelementos tipo N y tipo P
de la celda Peltier, como consecuencia se tiene un control
de temperatura con una perturbación constante en cada ciclo
de la señal PWM y un deterioro de los enlaces moleculares
debido a la interacción no armónica de electrones-fonones
que afecta significativamente a las características de
transporte de los termoelementos N y P [18]; por esta razón,
la vida útil de la celda Peltier es afectada en un corto plazo.
En la Fig. 12b se muestra la disminución del diferencial de
temperatura que tiene la celda cuando se ejecutaron varios
controles de temperatura con distintas frecuencias. El
resultado obtenido en la Fig. 12b, se encuentra acorde con el
estudio realizado en [19], donde se indicó que la influencia
del campo de corriente alterna en el efecto termoeléctrico es
relacionado directamente con el aumento de la frecuencia.
Entre Ciencia e Ingeniería
El termoelemento tipo N de la celda Peltier está
fuertemente dopado de electrones, los cuales son rechazados
por los electrones libres del material tipo N del diodo Schottky
15SQ045, como consecuencia los electrones libres del diodo
se dirigen hacia su unión P-N (ver Fig. 13). Por otra parte, los
huecos del material tipo P de la celda son rechazados por los
huecos del material tipo P del diodo, como consecuencia los
huecos del diodo se dirigen hacia la unión P-N. Es así como
el diodo se polariza en directo, conduciendo electrones en la
misma dirección, es decir beneficiándose del efecto Seebeck
para que el efecto Peltier siga funcionando un corto tiempo,
hasta que la corriente en el diodo se suprima.
Fig. 13. Conexión de la celda Peltier TEC1-12706 y el diodo
Schottky 15SQ045.
La señal de tensión obtenida en la celda Peltier con el
diodo Schottky 15SQ045 conectado en antiparalelo se
observa en la Fig. 14a, claramente se determina que el diodo
anula los picos negativos presentes en la Fig. 12a y conserva
el diferencial térmico de la celda independientemente de la
frecuencia PWM como se aprecia en la Fig. 14b.
C. Respuesta del sistema de control
El queso Cheddar tiene su punto óptimo de maduración
a una temperatura de 12℃, con una humedad relativa (HR)
entre 87% y 95% [20]. Arbitrariamente se estableció el punto
de ajuste de temperatura en 12.3℃ y de HR en 85.0% durante
8 semanas. En la Fig. 15 se observa la respuesta del sistema
de control de temperatura y humedad relativa cuando la
temperatura ambiente es de 30℃. La respuesta del sistema
de control de temperatura es una respuesta sub-amortiguada,
con un sobrepaso del 15.38% y un tiempo de estabilización
de 6200 segundos (1 hora y 43 minutos). Cuando el error de
81
la temperatura es cero y el valor del controlador es estable
(punto 1), se activa el humidificador (punto 2) para obtener
la HR requerida. El control sobre el humidificador es ON/
OFF que se condiciona del error de la temperatura, el valor
del controlador PID y el error de la humedad relativa (ver
Fig. 4).
(6)
(7)
(8)
La potencia disipada en forma de calor por efecto Joule
(PRTH) se determina en la ecuación (9), donde RTH =2.3Ω
(resistencia del módulo) es especificada por el fabricante
de la celda Peltier TEC1-12706 cuando la temperatura en el
lado caliente de la celda es de 50ºC.
14 (a)
(9)
Por lo tanto la potencia debida al flujo de calor
termoeléctrico (PTE) se obtiene restando las ecuaciones (8)
y (9):
(10)
De las ecuaciones (8), (9) y (10), se determina que
el rendimiento termoeléctrico total, en este caso, es de
aproximadamente 33% (PTE/PAVG) de la potencia total
transferida a la celda Peltier TEC1-12706. Es importante
aclarar que este rendimiento total no es el mismo rendimiento
de enfriamiento.
14 (b)
Fig. 14. (a) Señal de tensión en la celda Peltier con el diodo Schottky
15SQ045. (b) Desempeño térmico de la celda TEC1-12706 con el
diodo 15SQ045 para distintas frecuencias de control PWM en un
periodo de 10 horas.
Una segunda prueba de control se realizó para el queso
Cheddar con los mismos puntos de ajuste, pero con una
temperatura ambiente de 26ºC. Los parámetros arrojados
en las dos pruebas del sistema de control de temperatura y
humedad se tebularon en la Tabla I.
tabla i. parámetros de la respuesta al control de temperatura y
humedad relativa para el queso cheddar
Fig. 15. Respuesta del sistema de control de temperatura y humedad
relativa para el queso Cheddar.
D. Rendimiento de la celda Peltier
En el punto 3 de la Fig. 15 se estabiliza la temperatura
con un error en estado estable de cero y la humedad relativa
se ubica 3% por arriba de su punto de ajuste. En este punto,
el valor del controlador PID discreto es de 523, lo que
representa el 66.6% del ciclo útil de la señal PWM de 25kHz.
Basado en la señal de tensión de la celda, se determina
analíticamente la potencia total transferida (Ec. 8) utilizando
las ecuaciones (6) y (7).
En definitiva la potencia total transferida de la celda Peltier
en la segunda prueba es PAVG = 14,177W , su potencia debida
al flujo de calor termoeléctrico es PTE = 4,677W y la potencia
debida al efecto Joule es PRTH = 9,506W . Esto indica que el
rendimiento termoeléctrico de la celda Peltier se mantiene en
33%, aunque es relevante señalar que el rendimiento térmico
es dependiente de la temperatura del lado caliente de la celda
Peltier como se deduce fácilmente de la ecuación (4), por
esta razón se recomienda implementar un disipador activo de
calor específicamente diseñado para los dispositivos Peltier,
los cuales ya se encuentran en el mercado.
Universidad Católica de Pereira
82
IV. Conclusiones
Se ha argumentado y demostrado que la celda Peltier
TEC1-12706 se deteriora seriamente cuando es controlada
mediante la técnica de PWM; sin embargo, se ha propuesto
el diodo Schottky 15SQ045 como una solución eficaz y
efectiva para anular los daños que ocasiona el efecto Seebeck
cuando se utiliza esta técnica de control en celda TEC112706. Asimismo, el diodo Schottky 15SQ045 permitió que
la celda Peltier se beneficie del efecto Seebeck, debido a que
el diodo conduce una corriente de retroalimentación que
favorece al efecto Peltier en la celda.
Mediante la técnica de control PWM se logró controlar
gradualmente (resolución de 0 a 800) la potencia de la celda
Peltier, obteniendo así temperaturas exactas. El rendimiento
total termoeléctrico de la celda TEC1-12706 es del 33%
debido en gran parte a los parámetros termoeléctricos de la
celda Peltier [7]-[10] y a la insuficiencia de los disipadores
de calor implementados, ya que el desempeño del disipador
de calor interviene en el valor de TH y por lo tanto influye
en el rendimiento de la celda como se establece en las
ecuaciones (3) y (4).
Un aspecto destacable es que la celda Peltier consume
la energía eléctrica estrictamente necesaria para mantener la
temperatura constante, esto se concluye de la Tabla I, cuando
la temperatura ambiente se reduce, la potencia transferida a
la celda también lo hace.
El controlador PID desarrollado mediante MATLAB y
ejecutado por el PIC16F877A cumplió con las expectativas
de operación de la cámara de maduración. La respuesta
transitoria y permanente del sistema de control de
temperatura (véase la Fig. 15 y Tabla I) demostró que la
celda Peltier es un dispositivo preciso y confiable; además de
ser rentable y ecológico, ya que confrontada con los sistemas
tradicionales de enfriamiento, presenta ventajas como: bajo
costo de adquisición y mantenimiento, larga expectativa de
vida y disminución de energía eléctrica consumida.
Referencias
[1] J. Benedito, J. Carcel, R. Gonzalez y A. Mulet, «Application of low
intensity ultrasonics to cheese manufacturing processes,» Ultrasonics,
2002.
[2] M. Riahi, I. Trelea, M.-N. Leclercq-Perlat, D. Picque y G. Corrieu,
«Model for changes in weight and dry matter during the ripening
of a smear soft cheese under controlled temperature and relative
humidity,» International Dairy Journal, 2007.
[3] D. D. Muir, E. A. Hunter, J. M. Banks y D. S. Horne, «Sensory
properties of Cheddar cheese: changes during maturation,» Food
Research International, 1996.
[4] D. Picque, H. Guillemin, P. Mirade, R. Didienne, R. .Lavigne, B.
Perret, M. Montel y G. Corrieu, «Effect of sequential ventilation on
cheese ripening and energy consumption in pilot ripening rooms,»
International Dairy Journal, 2009.
[5] Z. Xiao y Z. Li-Dong, «Thermoelectric materials: Energy conversion
between heat and electricity,» Journal of Materiomics 1, 2015.
[6] Los incubadores refrigerados IPP de Memmert, Alemania: Memmert,
2014.
[7] G. A. Mannella, V. La Carrubba y V. Brucato, «Peltier cells as
temperature control elements: Experimental characterization and
modeling,» Applied Thermal Engineering, 2013.
[8] T. Brestovic, N. Jasminská, M. Carnogurská, M. Puškár, M. kelemen y
Entre Ciencia e Ingeniería
M. Filo, «Measuring of thermal characteristics for Peltier thermopile
using calorimetric method,» Measurement, 2014.
[9] J. Pérez–Aparicio, R. Palma y R. Taylor, «Finite element analysis
and material sensitivity of Peltier thermoelectric cells coolers,»
International Journal of Heat and Mass Transfer, 2011.
[10] J. J. Paez y J. E. Rodriguez, «Propiedades electricas y estructurales
de compuestos creamicos del tipo CaMnO-Y,» Revista de Fisica,
Momento, 2012.
[11] W. Shengjun y D. Mingcong, «Operator-based robust nonlinear
control and fault detection for a Peltier actuated thermal process,»
Mathematical and Computer Modelling, 2011.
[12] E. Garcia, Compilador C CCS y simulador PROTEUS para
microcontroladores PIC, Mexico: Alfa y Omega Grupo Editor, 2008,
p. 143.
[13] C. J. Hermes y J. R. Barbosa, «Thermodynamic comparison of
Peltier, Stirling, and vapor compression portable coolers,» Applied
Energy, 2012.
[14] A. Sellitto, V. Cimmelli y D. Jou, «Influence of electron and phonon
temperature on the efficiency of thermoelectric conversion,»
International Journal of Heat and Mass Transfer, 2015.
[15] R. Hopfel y J. Shah, «Electron.hole drag in semiconductors,» SolidState Electronics, 1988.
[16] J. Jay-Gerin, «Thermoelectric power of semiconductors in the
extreme quantum limit: The electron-diffusion contribution,» Journal
of physics and chemistry of solids, 1974.
[17] P. Egolf, L. Gravier, T. Francfort, A.-G. Pawlowski y G. Courret,
«High-frequency magnetocaloric modules with heat gates operating
with the Peltier effect,» International journaly of refrigeration, 2014.
[18] M. Bagheri Tagani y H. Rahimpour Soleimani, «Phonon-assisted
thermoelectric effects in a two-level molecule,» Physica B, 2013.
[19] C. Qiao, W. Zhi-yong y X. Zhong-Xiang, «Enhancement of the
thermoelectric figure of merit in a quantum dot due to external ac
field,» Physics Letters A, 2013.
[20] J. Hort y G. Le Grys, «Developments in the textural and rheological
properties of UK cheddar cheese during ripening,» International
Dairy Journal, 2001.
Josué Leal, nació en San José de Cúcuta,
Colombia, el 5 de octubre de 1990. Se
graduó de ingeniero electrónico de la
Universidad Francisco de Paula de Santander
en diciembre del 2014. Miembro activo del
Grupo de Investigación y Desarrollo en
Microelectrónica Aplicada (GIDMA) desde
junio del 2014.
Ejerció profesionalmente en la empresa
CEMEX S.A-Cúcuta desde julio del 2013 a
marzo del 2014.
Mónica León, nació en San José de
Cúcuta, Colombia, el 24 de enero de 1991.
Se graduó de ingeniero electrónico de la
Universidad Francisco de Paula de Santander
en junio del 2015. Miembro activo del
Grupo de Investigación y Desarrollo en
Microelectrónica Aplicada (GIDMA) desde
junio del 2014.
Realizó tesis de investigación titulada
“Sistema de control de temperatura y
humedad relativa para una cámara de
maduración de quesos”, donde obtuvo
distinción de tesis meritoria.
Sergio Sepúlveda (M’ 2013), nació
en San José de Cúcuta, el 11 de octubre de
1984. Se graduó de ingeniero electrónico de
la Universidad Francisco de Paula Santander
en la ciudad de Cúcuta, Colombia en junio de
2007. Obtuvo el título de Master of Science
in Electrical and Computer Engineering de
la Universidad de Delaware en Newark, DE,
Estados Unidos en mayo de 2012.
Se ha desempeñado como Profesor
Catedrático de la Universidad de Pamplona,
en Villa del Rosario, Norte de Santaner,
Colombia entre el 2009 y el 2010. Fue Joven
83
Investigador e Innovador para Colciencias y la Universidad Francisco
de Paula Santander en Cúcuta, entre el 2008 y el 2010. Obtuvo una beca
Fulbright de posgrado para las Regiones desde el 2010 hasta el 2012.
Actualmente se desempeña como profesor tiempo completo e investigador
en la Universidad Francisco de Paula Santander. Es integrante activo
del Grupo de Investigación y Desarrollo en Microelectrónica Aplicada
(GIDMA) desde octubre de 2013. Sus intereses en investigación son los
sistemas de control, sistemas embebidos, redes de sensores inalámbricas y
energía solar fotovoltaica.
El ingeniero Sepúlveda es el consejero del capítulo PES de la rama
estudiantil IEEE en la Universidad Francisco de Paula Santander desde el
2014.
Universidad Católica de Pereira
84
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 84 - 94
Comparación de dos algoritmos para hallar
ternas pitagóricas usando dos paradigmas de
programación diferentes1
Comparison of two algorithms in order to
find Pythagorean triples using two different
programming paradigms
O. I. Trejos
Recibido Junio 10 de 2015 – Aceptado Septiembre 23 de 2015
Resumen— En este artículo, además de analizar las
características algorítmicas de dos versiones de solución al
problema de hallar ternas pitagóricas en un rango de 1 hasta n
para n como un valor entero definido, se realiza una comparación
entre la solución implementada a partir del paradigma de
programación funcional, basado en lenguaje Scheme entorno
Dr. Racket versión 6.1 y la solución implementada a partir del
paradigma de programación imperativa utilizando lenguaje
C++ arista estructurada entorno DevC++ Versión 5.8.0. La
comparación de estas dos soluciones, vistas desde paradigmas
de programación diferentes, se hace a nivel de codificación
pura, a nivel de la lógica utilizada para resolverlo y a nivel del
rendimiento y la eficiencia, apoyados en la medición de tiempos
de proceso. Ambos programas presentan los resultados en dos
formatos y la comparación de rendimiento se hace teniendo
en cuenta el despliegue en la pantalla. Esta comparación no
solo permite establecer relaciones entre los paradigmas de
programación (paradigma funcional y paradigma imperativo)
sino que posibilita el planteamiento de un híbrido que
pudiera ser mucho más eficiente que ambos, pero a partir de
1
Producto derivado del proyecto de investigación “Desarrollo de un
modelo pedagógico para la asignatura Programación I en Ingeniería de
Sistemas basado en aprendizaje significativo, aprendizaje por descubrimiento
y el modelo 4Q de preferencias de pensamiento”. Presentado por el Grupo
de Investigación en Informática de Ingeniería de Sistemas y Computación,
de la Universidad Tecnológica de Pereira.
O.I. Trejos Docente de Planta, Ingeniería de Sistemas y Computación,
Universidad Tecnológica de Pereira (Colombia); email: omartrejos@utp.
edu.co.
Entre Ciencia e Ingeniería
lo más eficiente que cada uno puede aportar. Cada una de
las implementaciones es totalmente original producto de la
investigación y de la iniciativa y la experiencia del autor de este
artículo.
Palabras clave — algoritmo, programación funcional,
programación imperativa, procesos cíclicos, recursión, ternas
pitagóricas
Abstract — in this article we analyze the algorithmic
characteristics of two solutions for the problem to find
Pythagorean triples in a specific range from 1 to n to a
defined value of n as an integer. We also make a comparison
between the solution implemented with functional paradigm
in Scheme language environment Dr. Racket version 6.1 and
the solution implemented with imperative paradigm in C++
language environment Dev C++ version 5.8.0. The comparison
of these solutions is made from the perspective of two different
programming paradigms. We analyze the pure codification,
the logic used in the implementation and the performance and
efficiency using the computer timer. Both programs present two
formats to show the results in the display. These comparisons
not only permit to establish possible relations between
the programming computer paradigms (functional and
imperative) but also let us to think about a hybrid solution from
the best of each solution implemented. Each implementation is
absolutely original product of the research and the initiative
and experience of the author of this article.
Key words— algorithm, functional programming, imperative
programming cyclic process, recursion, Pythagorean triples.
85
L
I. Introducción
A programación, según la teoría que se deriva de la
ingeniería de sistemas, es uno de los posibles caminos
con que se cuenta para encontrar soluciones a determinados
problemas que, según sea su contexto, tienen un nivel
establecido de complejidad y resolución que le permiten al
computador desarrollar las tareas que resuelvan lo que para el
ser humano podría ser agotador [1]. Uno de los terrenos más
fértiles tanto para el planteamiento de problemas como para
su articulación con la programación en la construcción de
las posibles soluciones son las matemáticas. En esta área la
tecnología provee mecanismos que facilitan la construcción
de dichas soluciones. El hallazgo de soluciones a problemas
matemáticos desde la óptica de la programación permite
que se apropien, se asimilen, se apliquen, se evalúen y, más
importante, se retroalimenten planteamientos derivados
de la lógica computacional que, no sólo son aplicables en
matemáticas, sino en otras áreas del conocimiento a partir
del concepto de Algoritmización, Codificación y Puesta a
Punto [2]. Se hace necesario que el conocimiento, como el
técnico que provee la programación de computadores, se
confronte con situaciones prácticas reales de forma que se
relacione, en tiempo de solución, con áreas que proveen los
problemas, los enunciados y las situaciones problémicas [3].
Esta confrontación es lo que permite imprimirle significado
al conocimiento, es decir, el hallazgo de esos espacios donde
el conocimiento es útil para el cerebro [4].
El camino del aprendizaje en cualquier proceso de
formación y adquisición de conocimientos es mucho más
expedito cuando dicho aprendizaje se aplica confiriéndole
significado pues esto permite que tienda a ubicarse en la
memoria a largo plazo [4]. De allí por qué, la relación entre el
conocimiento técnico y los problemas prácticos que provea
la matemática es tan importante pues se evidencia aplicación,
conocimiento y significado. Las relaciones didácticas entre
el conocimiento y su aplicación se pueden apropiar por un
camino más sencillo en la medida en que se puedan construir
y, además, comparar bajo determinados criterios que apunten
a una solución óptima. La estrategia de la comparación
de soluciones, desde la óptica de los paradigmas de
programación, permite que se puedan enfrentar conceptos
para bien de la apropiación y asimilación de conocimientos
por parte del estudiante. Cuando se establecen este tipo de
comparaciones se le permite al estudiante encontrar aún más
significado al conocimiento adquirido y relacionarlo no solo
con los conocimientos previos sin con los conocimientos
transversales que sirven de base para resolver el mismo
objeto de conocimiento. El contenido de este artículo busca
que los estudiantes no solo verifiquen, prueben y conozcan
soluciones a problemas determinados sino que las comparen
en dos paradigmas diferentes desde una óptica práctica
basándose más en la lógica y el razonamiento que en
procedimientos mecánicos y enteramente memorísticos [5].
La gran utilidad que tiene este artículo es que afianza,
desde dos ópticas completamente diferentes, la idea de que
el proceso de aprendizaje de la aplicación de los recursos
tecnológicos modernos se fundamenta en las posibles
relaciones que se pueden establecer entre determinados
problemas (caracterizados por su naturaleza) y las soluciones
que se puedan implementar para resolverlos. Precisamente
una de las dificultades que tiene el docente en estos tiempos
modernos, especialmente los docentes de las áreas de
aplicación tecnológica, es lograr que el estudiante no solo
aplique los conocimientos adquiridos sino que los confronte
con conocimientos transversales que están al mismo nivel
de utilización [6]. Se ha acudido a las matemáticos como
el proveedor de problemas, específicamente del hallazgo de
ternas pitagóricas, porque es uno de los terrenos donde el
estudiante puede articular teoría con práctica, a lo cual se le
puede adicionar el concepto de práctica múltiple, es decir,
la práctica que se deriva de aplicar diferentes paradigmas
en la resolución de un mismo problema. Los procesos de
aplicación comparativa de soluciones tienden a afianzar los
conocimientos adquiridos en los procesos de aprendizaje [7].
En cuanto a la pregunta de investigación asociada al
contenido del presente artículo, ésta podría describirse en
los siguientes términos: ¿es posible encontrar caminos que
afiancen el conocimiento adquirido y su significado de
aplicación que se basen en la comparación de objetos de
estudio similares a partir de los paradigmas de programación
que refuercen tanto los conocimientos previos como los
nuevos conocimientos? La respuesta es el contenido del
artículo donde se presenta una posible alternativa en
tratándose de paradigmas de programación y su relación con
un problema específico: el hallazgo de ternas pitagóricas.
La respectiva hipótesis plantea que es posible lograrlo de
manera efectiva en campos como el de la programación de
computadores si se formulan soluciones desde, por ejemplo,
el paradigma funcional y el paradigma imperativo, que
tiendan a resolver un mismo problema (como el hallazgo de
ternas pitagóricas).
El contenido de este artículo se fundamenta en la
investigación científica y tecnológica apoyado en la teoría
del aprendizaje significativo [4], teoría del aprendizaje por
descubrimiento [5] así como la tendencia Active Learning
y Problem Based Learning que propenden no sólo por hacer
al alumno partícipe y responsable de su propio proceso
de aprendizaje sino de relacionar permanentemente los
conceptos que se revisan desde la teoría con sus aplicaciones
prácticas. Adicionalmente, este artículo presenta de una forma
aplicada, la estrecha relación que existe entre la matemática,
proveedora de problemas, y la programación, como instancia
de aquella en lo puramente tecnológico que posibilita algunas
soluciones, como una manera de concederle significado a la
teoría que se deriva de los paradigmas de programación. Se
plantean en el contenido de este artículo dos propuestas de
solución algorítmica al problema de la búsqueda y hallazgo
de ternas pitagóricas, es decir, aquellos números que cumple
con el teorema de Pitágoras. Con estas propuestas se realiza
un proceso de comparación en lo sintáctico, en lo lógico y
en lo procedimental con el ánimo de afianzar los criterios
Universidad Católica de Pereira
86
que permiten la construcción de cada una de ellas desde la
perspectiva de cada paradigma seleccionado.
Para la implementación se ha acudido al lenguaje C++
arista imperativa y a su entorno DevC++ versión 5.8.0 en
lo que corresponde a la solución imperativa; por su parte
se ha acudido al lenguaje Scheme en su entorno DrRacket
versión 6.1 en lo que compete a la solución funcional. De
la misma manera el contenido de este artículo es uno de
los productos del proyecto de investigación “Desarrollo de
un modelo metodológico para la asignatura Programación
I en Ingeniería de Sistemas basado en aprendizaje
significativo, aprendizaje por descubrimiento y el modelo
4Q de preferencias de pensamiento” Código 6-15-10 de la
Vicerrectoría de Investigaciones, Innovación y Extensión de
la Universidad Tecnológica de Pereira.
II. Marco teórico
El primer paradigma que se ha utilizado para elaborar una
solución al problema del hallazgo de las ternas pitagóricas
se conoce como el paradigma funcional, que se basa en la
matemática derivada del cálculo Lambda y su concepto más
importante es, precisamente, el concepto de función del cual
deriva su nombre que constituye la base para la elaboración
de soluciones [8]. Este concepto de función puede definirse
como un micro programa que alcanza un micro objetivo
y que, al formar parte de un programa, junto con otras
funciones permite lograr grandes objetivos. La función es
un conjunto definido de funciones, que puede tener nombre
o puede ser anónima, que puede estar habilitada para
recibir argumentos, ser identificada por un nombre y puede,
igualmente, retornar valores sin tener que acudir a la memoria
del computador como intermediario para definir sus estados
de almacenamiento [2]. Lo verdaderamente importante en
la programación funcional es la manera como el cuerpo
de las funciones interactúa para lograr un resultado que se
constituye en el aporte de cada función en un programa.
Desde una óptica muy sencilla, podría decirse
que un programa construir sobre los fundamentos del
paradigma funcional, consiste en un conjunto de funciones
independientes pero, al tiempo, interdependientes en
relación con el logro de un determinado objetivo común. La
atomización de una solución parte del principio “divide y
vencerás” que es un principio de programación según el cual
al dividir un gran objetivo a alcanzar en pequeños objetivos,
es posible resolver los pequeños objetivos (con funciones)
y luego enlazarlos de manera que el gran objetivo original
quede resuelto. Es de anotar que resolver cada uno de los
pequeños objetivos es mucho más sencillo que resolver
el gran objetivo. La solución a esos pequeños objetivos
es lo que provee la necesidad de construir funciones y de
capitalizar al máximo los resultados de las funciones por
encima de las formas posibles de almacenamiento.
Una de las potencialidades mayores que tiene la
programación funcional es el concepto de recursión. Como
recursión, o recursividad, se entiende la propiedad que provee
Entre Ciencia e Ingeniería
un lenguaje de programación de permitir que una función se
llame a sí misma. En términos matemáticos, la recursión se
define como la notación a través de la cual se puede definir
una función en sus propios términos. Bajo la perspectiva
funcional, la recursión se constituye en uno de los mayores
recursos con que cuentan las funciones para implementar
procesos cíclicos que no queden en “loops” infinitos, sino
que, bajo una determinada lógica y siempre de acuerdo a las
necesidades algorítmicas, finalice exitosamente retornando
los resultados que se requieran como producto del proceso
iterativo. En este artículo se ha utilizado el lenguaje Scheme
en el entorno DrRacket por su alta capacidad para procesar
datos, por la facilidad de implementar procesos recursivos
eficientes y por la simplicidad que provee en el manejo de
datos numéricos.
Por su parte, cuando se habla del paradigma de
programación imperativa se hace referencia a uno de los
modelos computacionales más estables y que han tenido
mayor maduración debido a la cantidad de lustros que han
permitido su refinamiento y que partieron de los fundamentos
que brindaran Alan Turing (1912-1954) y John von
Neumann (1903-1957) [1]. El paradigma de programación
imperativo se fundamenta en el concepto de máquina de
estados, de acuerdo a la cual, un programa se reduce a una
cantidad de instrucciones que posibilitan la modificación
de los contenidos de la memoria de un computador, que
es el espacio físico - lógico donde se almacenan dichos
contenidos en formato binario. La programación imperativa
basa sus implementaciones en la utilización de tres
esquemas conocidos como estructuras básicas, razón por
la cual este paradigma también se conoce como paradigma
imperativo. Estas tres estructuras, que son el fundamento
para la implementación de soluciones, son las secuencias de
instrucciones, los condicionales y los ciclos.
Las secuencias de instrucciones se pueden describir
como instrucciones escritas y ubicadas bajo un determinado
orden que, en las condiciones que describa el problema
determinado, es inalterable para la correcta ejecución de
la solución (Van Roy, 2008). Una instrucción se ejecuta
completamente sólo después de que la anterior instrucción
se ha ejecutado completamente y antes de que se comience
a ejecutar la siguiente instrucción. Por su parte, la
estructura condicional, permite la escogencia de uno de
dos caminos lógicos dependiendo de una condición que
afecte la decisión y que tiene relación con ambos caminos.
La condición normalmente se escribe en términos de
operadores aritméticos, relacionales y booleanos. Los ciclos,
la tercera estructura básica, posibilitan repetir la ejecución
de un conjunto de instrucciones, una cantidad determinada
de veces dependiendo, tal como la segunda estructura,
de una condición que la regule. Con la programación
imperativa se busca que los programadores utilicen al
máximo, las potencialidades de las estructuras, de forma
que, con su combinación, anidamiento y utilización, se
puedan implementar soluciones que satisfagan objetivos
computables.
87
Desde la más simple de las definiciones, un programa
basado en el paradigma imperativo se puede concebir como
un conjunto de instrucciones independientes que buscan
alcanzar un objetivo que, a su vez, satisface un enunciado
y que se fundamenta en la interacción y modificación
de los contenidos del estado actual de la memoria del
computador. Cuando se aprovechan las estructuras básicas
de este paradigma es posible llegar a establecer estándares
en la construcción de algoritmos de manera que diferentes
lógicas aproximen los elementos de juicio que intervinieron
en su planteamiento inicial. De la buena utilización de
la estructuras y del diseño que se la haga al programa,
dependerá el tiempo que se necesite para corregir errores
lógicos y que el mantenimiento del código sea eficiente.
La programación imperativa se sirve del concepto de
función para lograr programas fáciles de mantener, de
modificar y de actualizar, toda vez que las funciones permiten
atomizar el objetivo general y construir la solución a partir
de objetivos menores que, enlazados, resuelven el problema
que se haya planteado [9]. En la programación imperativa la
metodología “divide and conquer” es, igualmente, efectiva
que en la programación funcional pues permite, en ambos
paradigmas, construir soluciones que sean coherentes,
simples y entendibles, las tres condiciones que se requieren
para que un programa logre el objetivo por el mejor de los
caminos. Esta estrategia es el camino para que la solución se
atomice a partir del buen uso de las estructuras.
Se ha utilizado el lenguaje C++ en su arista imperativa
para la construcción, validación y puesta a punto de la
solución planteada, para detectar y hallar ternas pitagóricas,
por considerarse el concepto de función, un lenguaje de
programación flexible, fácil de codificar y muy fácil de
implementar a la luz de las estructuras básicas. Tanto el
entorno DevC++ para la codificación de lenguaje C++ como
el entorno DrRacket para la codificación de lenguaje Scheme,
se consideran suficientemente sólidos en lo sintáctico,
veloces en lo compilativo y eficientes en la ejecución de
los programas. Cabe anotar que ambos lenguajes permiten
la programación orientada a objetos que constituye el tercer
paradigma y cuyo alcance va más allá de los objetivos del
presente artículo.
El problema que se ha escogido para implementar dos
soluciones y compararlas bajo determinados criterios, es
el que permite encontrar ternas pitagóricas en un rango
determinado. Una terna pitagórica es aquel trío de números
que cumple con el teorema de Pitágoras según el cual “la
suma de los cuadrados de los catetos es igual al cuadrado
de la hipotenusa” [10] que escrito en términos matemáticos
correspondería a a2+b2=c2 para valores enteros a, b y c como
medida de los catetos y de la hipotenusa. Cabe anotar que en
la igualdad expuesta, los catetos estarían identificados por
las letras a y b y la hipotenusa estaría identificada por la letra
c. en el ámbito puramente matemático, el problema consiste
en encontrar ternas de números enteros (también conocidos
como naturales) que satisfagan la ecuación base de este
teorema. Es de anotar, igualmente, que este teorema se hace
efectivo en los triángulos rectángulos o sea aquellos en los
cuales uno de sus ángulos internos es igual a 90º. La idea de
este artículo es establecer elementos de juicio comparativos
que, a partir de una solución funcional y de una solución
imperativa, permitan develar ventajas y desventajas de cada
uno de los paradigmas.
III. Metodología
A. Descripción
Dado que el objetivo de este artículo es establecer criterios
comparativos entre dos soluciones algorítmicas a un mismo
problema, se presentará la lógica de construcción de ambas
soluciones y, posteriormente, los comparativos se harán
sobre la codificación de cada una a la luz de un paradigma y
utilizando como medio un lenguaje de programación. Tanto
para la solución funcional como para la solución imperativa,
se han planteado las diferentes variantes de validación que se
necesitan para realizar el proceso de búsqueda y hallazgo de
las ternas pitagóricas, según lo establecido en la definición.
La lógica de solución parte de las mismas bases y por ello
el rango de posibles valores a validar está dado por la tabla I.
Tabla I
Posibles Valores A Validar
La tabla I pareciera sugerir que se requieren dos procesos
cíclicos (uno dentro de otro), de manera que se pueda hacer
el recorrido apropiadamente. En un proceso cíclico externo
deberá recorrerse desde 1 hasta n (de 1 en 1) y, dentro de este
ciclo deberá existir un proceso cíclico interno que recorra
igualmente los valores desde 1 hasta n (también de 1 en 1).
Algorítmicamente, la secuencia de los números
presentados se puede resumir de la siguiente forma:
Para a = 1 hasta n (1)
Para b = 1 hasta n (1)
Validar a2+b2
La validación de la expresión a2+b2, que se constituye
en la esencia del problema, se puede realizar de dos formas
de manera que cada una esté asociada a cada paradigma tal
como lo presenta a continuación.
Solución Funcional
Para a = 1 hasta n (1)
Para b = 1 hasta n (1)
Universidad Católica de Pereira
88
Calcular el resultado de a2+b2
Obtener la raíz cuadrada de a2+b2
Obtener parte entera de raíz cuadrada obtenida
Compararla con la raíz como tal
Si son iguales
Mostrar la terna pitagórica
Si no lo son
Continuar con la siguiente combinación
Fin Si
Fin Para
Fin Para
Solución Imperativa
a=1
Mientras a<=n
b=1
Mientras b<=n
Obtener resultado de a2+b2
Almacenar raíz cuadrada de a2+b2 en variable
entera
Almacenar raíz cuadrada de a2+b2 en variable real
Comparar los dos valores obtenidos
Si estos dos valores son iguales
Desplegar en pantalla la terna pitagórica
Si no son iguales
Continuar con la siguiente combinación
Fin Si
b=b+1
Fin Mientras
a=a+1
Fin Mientras
La tabla II muestra la relación entre la lógica funcional y la
lógica imperativa en la parte medular de este algoritmo.
tabla ii comparación parte medular
En esta parte, desde lo funcional (debido a que se
manejan procesos y resultados de funciones) se acude a la
obtención del resultado de la raíz cuadrada de la expresión
algebraica y luego se compara con la parte entera de la raíz
cuadrada obtenida. En la parte imperativa (aprovechando
que se maneja el concepto de tipos de datos) se almacena
el resultado de la raíz cuadrada de la expresión tanto
en una variable entera como en una variable real y luego
se comparan los dos valores. En ambos casos, tanto en lo
funcional como en lo imperativo, la verificación de igualdad
entre los dos valores obtenidos (sea por vía de los resultados
de funciones o sea por vía de los valores almacenados en
variables de tipo diferente) se constituye en la confirmación
Entre Ciencia e Ingeniería
de la existencia de una terna pitagórica en la cual los valores
a y b, que conforman el valor de los catetos, están definidos
por los ciclos y el valor de la hipotenusa está definida por la
raíz cuadrada de la raíz cuadrada de la expresión a2+b2.
B. Aplicación
Tal como se ha planteado, para la implementación de
la solución funcional se acudió al lenguaje Scheme IDE
DrRacket versión 6.1 y para la implementación de la solución
imperativa se acudió al lenguaje C++ IDE DevC++ Versión
5.8.0. Ambos son entornos integrados de desarrollo para
Sistema Operativo Windows. Se presentan a continuación la
solución funcional y la solución imperativa.
Solución Funcional
; PROGRAMA QUE ENCUENTRA TERNAS
; PITAGÓRICAS EN EL RANGO 1 A N PARA UN
; VALOR N DEFINIDO
; Función simple que calcula la suma a^2+b^2
(define (suma a b)
(+ (expt a 2)(expt b 2))
)
; Función simple que confirma la existencia de una terna
pitagórica
(define (pitagoras a b)
(if(= (sqrt(suma a b))(floor(sqrt(suma a b))))
1
0
))
; Función simple que despliega resultados (solo ternas)
(define (mostrar2 a b)
(display “Terna Pitagórica --> (“)
(display a)
(display “,”)
(display b)
(display “,”)
(display (floor (sqrt (+ (expt a 2)(expt b 2)))))
(display “)”)
(newline)
(newline)
)
; Función simple que despliega resultados (completos)
(define (mostrar1 a b)
(newline)
(display a)
(display “^2 = “)
(display (expt a 2))
(display “, “)
(display b)
(display “^2 = “)
(display (expt b 2))
(newline)
(display (expt a 2))
89
(display “ + “)
(display (expt b 2))
(display “ = “)
(display (+ (expt a 2)(expt b 2)))
(newline)
(display “Raiz Cuadrada de “)
(display (+ (expt a 2)(expt b 2)))
(display “ = “)
(display (floor (sqrt (+ (expt a 2)(expt b 2)))))
(newline)
(display “Terna Pitagórica --> (“)
(display a)
(display “,”)
(display b)
(display “,”)
(display (floor (sqrt (+ (expt a 2)(expt b 2)))))
(display “)”)
(newline)
(newline)
)
; Función recursiva (proceso cíclico interno) de búsqueda
de números pitagóricos
(define (cicloint i j n)
(if (> j n)
0
(begin
(if ( = (pitagoras i j) 1 )
(mostrar1 i j)
)
(cicloint i (+ j 1) n)
)
)
)
; Función recursiva (proceso cíclico externo) de búsqueda
de números pitagóricos
(define (cicloext i j n)
(if (> i n)
0
(begin
(cicloint i j n)
(cicloext (+ i 1) j n)
)
)
)
; Función inicial
(define (inicio i j n)
(cicloext i j n)
)
; Llamado inicial (100 es el valor definido para n)
(inicio 1 1 100)
Solución Imperativa
// Programa que encuentra ternas pitagóricas en el
// rango 1 a n para un valor n definido
// Inclusión de librerías
#include <iostream>
#include <conio.h>
#include <math.h>
using namespace std;
// Función que calcula la suma a^2+b^2
int suma_factores(int a, int b)
{
// Inicio función suma_factores
int r;
// Variable local
r=pow(a,2)+pow(b,2); // Suma de cuadrados
return(r);
// Retorna suma de cuadrados
}
// Fin función suma_factores
// Función que confirma la existencia de una terna
// pitagórica
int respuesta(int a, int b)
{
// Inicio función respuesta
float rf;
// Variable local real
int ri;
// Variable local entera
// raiz cuad (real) de la suma de cuadrados
rf=sqrt(suma_factores(a,b));
// raiz cuad (entera) de la suma de cuadrados
ri=sqrt(suma_factores(a,b));
if(rf==ri)
// si son iguales
return(1);
// entonces retorne 1
(Verdadero)
return(0);
// Sino, retorne 0 (Falso)
}
// Fin función respuesta
// Función que despliega resultados (solo ternas)
int muestraterna2(int a, int b)
{
// Inicio función muestraterna2
int c;
// Variable local
Universidad Católica de Pereira
90
// Almacena parte entera raiz de suma de cuadrados
int n=15;
// Valor de n (rango de 1 a n)
c=int(sqrt(suma_factores(a,b)));
ciclos(n);
// Llamado a la función ciclos
cout<<”\nTerna Pitagórica --> (“;
// Título
getche( );
// Pausa para ver resultados
// Muestra la terna formato (a,b,c)
} // Fin función principal
cout<<a<<”, “<<b<<”, “<<c<<”)\n”;
} Las tablas IIIA y IIIB presentan una descripción breve
// Fin función muestraterna2
de las funciones que se han codificado en cada una de las
soluciones.
// Función que despliega resultados
// (formato completo)
tabla iii a. descripcion de funciones – paradigma funcional
int muestraterna1(int a, int b)
{ // Inicio funcion muestraterna1
int c;
// Variable local
// Muestra cuadrados
cout<<”\n”<<a<<”^2 = “<<pow(a,2);
cout<<”, “<<b<<”^2 = “<<pow(b,2);
// Suma de cuadrados
cout<<”\n”<<pow(a,2)<<” + “<<pow(b,2)<<” = “;
// Obtiene la raiz cuadrada de la suma de cuadrados
c=pow(a,2)+pow(b,2);
cout<<c<<”\n”;
cout<<”Raiz Cuad de “<<c<<”=”<<sqrt(c) <<”\n”;
cout<<”Terna Pitagórica --> (“;// Título
// Muestra terna
cout<<a<<”, “<<b<<”, “<<sqrt(c)<<”)\n\n”;
}
tabla iii b. descripcion de funciones - paradigma imperativo
// Fin función muestraterna1
// Función que establece los ciclos de validación
int ciclos(int n)
{
// Inicio función ciclos
int i, j;
// Variables locales
i=1;
// Valor inicial ciclo externo
while(i<=n) // Condición ciclo externo
{
// Inicio ciclo externo
j=1;
// Valor inicial ciclo interno
while(j<=n)
// Condición ciclo interno
{
// Inicio ciclo interno
// Si se cumple el teorema de Pitágoras
if(respuesta(i,j))
// Muestre la terna pitagórica
muestraterna1(i,j);
IV. Resultados
j++;
// Incremente índice ciclo interno
}
// Fin ciclo interno
Las tablas IV A y IV B muestran los resultados obtenidos
i++;
// Incremente índice ciclo externo
en los programas desarrollados para encontrar las ternas
}
// Fin ciclo externo
pitagóricas.
return(1);
// Al final, retorne 1
}
// Fin función ciclos
// Función principal
int main( )
{
// Inicio función principal
Entre Ciencia e Ingeniería
91
tabla iv a. resultados obtenidos
V. Discusión
– programa funcional
El espíritu del presente artículo radica en establecer
algunos criterios que permitan la comparación de los
programas presentados como soluciones al objetivo
planteado, de manera que se puedan correlacionar las
soluciones en cada paradigma, a la luz de la lógica, de
los recursos sintácticos y de las posibilidades que tanto el
paradigma como el lenguaje proveen. La tabla VII muestra
la forma como se ha implementado la función para calcular
el resultado de la expresión a2+b2 que es la base para la
demostración del teorema de Pitágoras, ya que ésta es el
resultado de sumar el valor de los catetos elevados cada uno
al cuadrado. Posteriormente es a este valor, al cual se le va a
obtener la raíz cuadrada y de esa forma podremos verificar
la existencia de una terna pitagórica. Luego la expresión
a2+b2, su validación correcta y su apropiada generación de
resultado es el centro de toda la demostración matemática y
de los programas que se presentan en este artículo.
Tabla IV B-. Resultados Obtenidos – Programa Imperativo
En su versión funcional, esta función acude a la función
de librería expt que retorna el resultado de elevar un valor a
una potencia determinada (que en este caso es la potencia
2). El resultado de sumar el cuadrado de cada uno de los
valores recibidos como argumentos es el valor que retorna
esta función que aprovecha dicho cálculo para retornarlo sin
variables intermedias que lo almacenen. Por su parte en la
versión imperativa se hace muy útil, aunque pudiera no ser
estrictamente necesario, que dicho resultado se almacene en
una variable local para retornarse por parte de la función. Se
ha utilizado en esta versión la función pow que se encuentra
en la librería math.h que es la que contiene, en lenguaje
C++, las funciones matemáticas. Es de anotar que en ambas
funciones se reciben los mismos valores, en la versión
funcional como argumentos y en la versión imperativa como
parámetros. Bien puede decirse que, a pesar de basarse
en paradigmas diferentes, son dos funciones simples que
contienen las similaridades del retorno, pues en ambas
funciones son equivalentes, sin embargo acuden a funciones
diferentes y la función como tal, mantiene la filosofía que
caracteriza cada paradigma: priorizar el proceso y priorizar el
almacenamiento para los paradigmas funcional e imperativo,
respectivamente.
tabla v. funcion que calcula la suma
Paradigma
Funcional
Como puede notarse en la tabla IV A y IV B, los resultados
son similares vistos desde la óptica del usuario, es decir,
desde la persona que ejecuta el programa para obtenerlos. La
diferencia fundamental está en la manera como se concibió
la lógica para aprovechar cada uno de los recursos que cada
paradigma provee y, de esa forma, encontrar una solución
efectiva al problema planteado.
Imperativo
Código
a2+b2
; Función simple que calcula la suma a^2+b^2
(define (suma a b)
(+ (expt a 2)(expt b 2))
)
// Función que calcula la suma a^2+b^2
int suma_factores(int a, int b)
{
// Inicio función suma_factores
int r;
// Variable local
r=pow(a,2)+pow(b,2); // Suma de cuadrados
return(r)
// Retorna suma de cuadrados
}
// Fin función suma_factores
En la tabla VI se presenta la función que confirma la
existencia de una terna pitagórica. En la versión funcional
lo que se hace es comparar el resultado de la raíz cuadrada
Universidad Católica de Pereira
92
de la suma de los cuadrados con el valor entero de dicha raíz
cuadrada. Si estos valores son iguales, significa que se ha
encontrado una terna pitagórica. Para confirmarlo se retorna
un valor 1 como expresión de un valor lógico Verdadero y
para negarlo se retorna un valor 0, como expresión de un
valor lógico Falso. Es de anotar que se pudo haber acudido
a la utilización de las constantes booleanas #t (para un valor
lógico Verdadero) y #f (para un valor lógico Falso) sin
embargo, para mantener alguna relación con la codificación
en el paradigma imperativo, se optó por utilizar el mismo
mecanismo de confirmación (Verdadero y Falso) en ambas
funciones equivalentes.
Por su parte, en la versión imperativa, si bien es cierto
que la función recibe los mismos parámetros (llamados
argumentos en la versión funcional) también lo es que la
lógica es un poco diferente. En esta versión se aprovecha el
concepto de tipo de dato que es completamente ausente en
la versión funcional. A la luz de este concepto se declaran
dos variables locales: una de tipo real llamada rf (como
para indicar que es la respuesta tipo float) y otra de tipo
entero llamado ri (para indicar que es la respuesta tipo int).
En cada una de estas variables se almacena el mismo valor
que corresponde al resultado de calcular la raíz cuadrada de
la suma de los cuadrados de los catetos (que para el caso
corresponden a los valores a y b recibidos como parámetros).
El hecho de que el mismo valor se almacene en una variable
entera y en una variable real, permite que posteriormente
se comparen estos resultados. Si son iguales, significa que
se ha encontrado una terna pitagórica puesto que solo serán
iguales cuando el resultado de la raíz cuadrada de la suma
de los cuadrados sea un valor entero, dado que solo así se
podrán ignorar los decimales que pudieren acompañar el
valor obtenido. Finalmente, y en consonancia con la versión
funcional, se retorna un valor 1 (Verdadero) o 0 (Falso)
dependiendo de que se cumpla o no el condicional que
pregunta si el valor entero es igual al valor real.
tabla vi. función que confirma la existencia de una terna
pitagórica
Entre Ciencia e Ingeniería
En la tabla VII se presenta el conjunto de instrucciones
que generan y controlan los procesos cíclicos que se
explicaron en la tabla I. En estas dos versiones sí son
notorias las características de cada uno de los paradigmas.
En la versión funcional se acude a una alta utilización
del concepto de recursión. Para generar los ciclos que se
necesitan, se construye primero una función recursiva
llamada cicloext que controla el 1º valor que se va a utilizar
en el proceso validatorio. Desde esta función se invoca a la
función cicloint, que también es otra función recursiva, que
genera los valores correspondientes al otro de los catetos
desde una posición lógica subordinada al llamado y control
de la función cicloext. En caso de que se encuentre una
terna pitagórica se procede a mostrar el resultado de la terna
hallada. Para este fin se han construido dos funciones de
salida, una que muestra los resultados concretos y la otra que
muestra adicionalmente el proceso que confirma la existencia
de dicha terna. La solución imperativa es comparativamente
sencilla dado que los dos procesos cíclicos se han anidado
utilizando las estructuras cíclicas que provee el ciclo while y
que permite que en una sola función podamos tener control
de ambas variables, la que representa un cateto y la que
representa el otro cateto, y de todo el proceso de manera
condensada. En esta función se han declarado dos variables
locales, una de ellas servirá como índice controlador del
ciclo externo y la otra servirá como índice controlador del
ciclo interno, ambas gobernadas por el mismo valor tope.
Al igual que en la solución funcional, en caso de que se
encuentre una terna pitagórica entonces se muestran los
resultados con cualquiera de las dos funciones que para tal
fin se han previsto: una que presenta los resultados de forma
simplificada y la otra que muestra, además de los resultados,
el proceso que permite confirmar la demostración de la terna
pitagórica.
93
tabla vii funciones ciclicas
tabla viii. funcion principal
Es de anotar que este programa se ha realizado sin
utilizar recursos gráficos de usuario que permitan una
interfaz gráfica un poco más amable para el usuario pues
se ha desarrollado para aprovechar los recursos sintácticos,
lógicos y tecnológicos de cada paradigma.
VI. Conclusiones
• Para concederle significado a los conceptos que se
derivan del estudio de la programación de computadores,
es muy importante buscar ejemplos que tengan relación
práctica con el conocimiento y el área de las matemáticas
son un excelente espacio de donde se puede acceder a
diversos problemas que cumplen con este objetivo.
Finalmente la tabla VIII presenta lo que podría llamarse,
en cada solución, el llamado principal (para la versión
funcional) o la función principal (para la versión imperativa).
En la versión funcional se hace un llamado enviando un valor
determinado como tope para las búsquedas de las ternas
pitagóricas. Ese llamado permite invocar una función que,
a su vez, invoca a la función que controla el ciclo externo
recursivo que se ha implementado. En la parte imperativa,
la función principal, también conocida como main( ), tiene
declarada una variable local que es la variable en al cual se
almacena el tope de evaluación para los posibles valores de
los catetos, se invoca a la función ciclos (que implementa en
una sola función los dos ciclos anidados que, en la versión
funcional, requiere dos funciones recursivas separadas)
y finalmente se acude a una instrucción para esperar la
verificación del resultado.
• Se constituye en un reto para los docentes de programación
y de matemáticas, a nivel universitario, permitir que los
estudiantes establezcan ese nexo de significado entre
lo teórico y lo práctico y proveerles de problemas que
puedan ser resueltos con las herramientas básicas que la
programación de computadores provee.
• Tanto la programación funcional como la programación
imperativa, cada una con sus características, ventajas
y limitaciones, son excelentes fuentes para construir
soluciones a problemas de las matemáticas.
• Aunque en este artículo se ha acudido a dos herramientas
específicas (DrRacket y DevC++), no se descarta que
otras soluciones puedan ser implementadas con mayor
eficiencia desde diferentes lenguajes y diferentes
entornos.
• Es de gran importancia que los estudiantes de las áreas de
programación reciban tanto el conocimiento fundamental
como su respectiva instancia tecnológica y su aplicación
práctica para que el conocimiento no quede ad portas del
olvido sino que pueda ubicarse en la memoria a largo
plazo producto de su aplicación en situaciones prácticas.
• El concepto de función simplifica la construcción de
soluciones tanto cuando se utiliza el paradigma funcional
a través de algún lenguaje de programación como cuando
se usa el paradigma imperativo.
Universidad Católica de Pereira
94
• Vale la pena resaltar que las funciones de interfaz son
altamente similares en ambas soluciones y que las
funciones operativas o de cálculo aprovechan al máximo
las características de cada paradigma para posibilitar la
implementación de una solución que, a la luz de cada
paradigma, se aproxime a la ideal
Referencias
[1] [2
[3
[4] [5]
[6] [7]
[8] [9] [10]
Trejos Buriticá, O. I. (2012). Aprendizaje en Ingeniería: un problema
de comunicación. Pereira (Colombia): Tesis Doctoral - Universidad
Tecnológica de Pereira.
Van Roy, P. (2008). Concepts, Techniques and Models of Computer
Programming. Estocolmo: Université catholique de Louvain.
Bruner, J. S. (1969). Hacia un teoría de la instrucción. Ciudad de
México: Hispanoamericana.
Ausubel, D. (1986). Sicología Educativa: Un punto de vista
cognoscitivo. Ciudad de México. Trillas.
Bruner, J. S. (1991). Actos de significado. Madrid: Alianza Editorial.
Paz Penagos, H. (2014). Aprendizaje autónomo y estilo cognitivo:
diseño didáctico, metodología y evaluación. Revista Educación en
Ingeniería, 9(17), 53-65.
Paz Penagos, H. (2009). How to develop metacognition through
problem solving in higher education? Revista de Ingeniería e
Investigación, 31(1), 75-80.
Felleisen, M. et al. (2013). How to design programs (2ª Ed). Boston.
MIT Press
Trejos Buriticá, O. I. (2006). Fundamentos de Programación. Pereira:
Papiro.
Sparks, J. (2008). The Pythatorean Theorem. Bloomington (Indiana):
AuthorHouse.
Omar Ivan Trejos Buriticá. Ingeniero de Sistemas. Especialista en
Instrumentación Física. Magister en Comunicación Educativa. PhD en
Ciencias de la Educación, actualmente es docente de tiempo completo de la
Universidad Tecnológica de Pereira.
Entre Ciencia e Ingeniería
95
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 9 No. 18 - Segundo Semestre de 2015, página 95 - 101
Modelado de la energía de interacción
de nanopartículas de sílice preparadas en
microemulsiones1
Modeling the interaction energy of silica
nanoparticles prepared in microemulsions
D.F. Tirado, D. Acevedo y A.P. Herrera
Recibido Junio 20 de 2015 – Aceptado Septiembre 23 de 2015
Resumen— Se modeló la energía de interacción de
nanopartículas de sílice preparadas en microemulsiones de
fase orgánica, usando la teoría DLVO para partículas esféricas
de igual tamaño. Los surfactantes comerciales seleccionados
fueron la sal sódica del sulfosuccinato de bis-(2-etilhexilo)
(AOT) y Tritón X-100 [p-(1, 1, 3,3-tetrametilbutil) fenílico] (TX100). Los sistemas coloidales estudiados fueron ciclohexano/
AOT, ciclohexano/TX-100, isooctano/AOT, e isooctano/TX100. Las curvas de energía total de interacción se construyeron
para varios diámetros de nanopartículas en función de su
distancia de separación. Los resultados fueron comparados con
la energía termal del sistema, encontrando mayor estabilidad
coloidal para el modelo de nanopartículas de sílice cubiertas
con el surfactante TX-100 y suspendidas en ciclohexano. Por
último se esperaría que la combinación de los compuestos
químicos ciclohexano/TX-100 permita la formación de micelas
inversas que sirvan tanto para la formación de nanopartículas
de sílice proporcionando un medio para el control de tamaño,
así como un sistema con buena estabilidad coloidal.
Palabras clave— estabilidad coloidal, nanopartículas, sílice,
microemulsiones, teoría DLVO.
1
Producto derivado del proyecto de Investigación “Análisis de la
Estabilidad Coloidal de Nanopartículas Sintetizadas por el Método de
Ultrasonido”, perteneciente al Grupo de Investigación Nanomateriales
Multifuncionales, adscrito a la Facultad de Ingeniería, Programa de
Ingeniería Química de la Universidad de Cartagena.
D.F. Tirado, Investigador Grupo de Investigación NUSCA, MS. (c)
Ingeniería Ambiental, Universidad de Cartagena, Cartagena (Colombia);
email: [email protected]
D. Acevedo, Ph.D Ingeniería de Alimentos, Docente del Programa de
Ingeniería de Alimentos, Universidad de Cartagena, Cartagena (Colombia);
email: [email protected]
A. Herrera, Ph.D Ingeniería Química, Docente del Programa de
Ingeniería Química, Universidad de Cartagena, Cartagena (Colombia);
email: [email protected]
Abstract— the interaction energy of silica nanoparticles
prepared in microemulsions of organic phase was modeled, using
the DLVO theory for spherical particles of equal size. For this
purpose, the effect of the organic solvent and the surface active
agent (surfactant) used for the coating of the nanomaterials
was evaluated. The selected commercial surfactants were
the sodium bis-(2-ethylhexyl) sulfosuccinate (AOT) and the
p-(1, 1, 3, 3-tetramethylbutyl) phenyl (TX-100). The colloidal
systems studied were cyclohexane/AOT, cyclohexane/TX-100,
isooctane/AOT, and isooctane/TX-100. Curves of total energy
contribution were analyzed considering the interaction energy
of van der Waals attraction and repulsion energy due to osmotic
layer covering surfactant molecules to the nanoparticles. From
these analyzes the curves of total energy for several diameters
of nanoparticles as a function of their separation distance were
built. These results were compared with the thermal energy of
the system, indicating greater stability for the colloidal silica
nanoparticles model covered with the TX-100 surfactant and
suspended in the organic medium cyclohexane. Thus, it could
be expected that the combination of the chemical compounds
cyclohexane/TX-100 allow the formation of reverse micelles,
which serve for the synthesis of silica nanoparticle providing
control size, as well as a system with a good colloidal stability.
Key words— colloidal stability,
microemulsions, DLVO theory.
nanoparticles,
silica,
I. Introducción
L
a nanotecnología está presente en diferentes campos
científicos como las ciencias físicas, químicas,
biológicas y de ingeniería, donde se están desarrollando
nuevas técnicas para el control de átomos y moléculas [1].
Las nanopartículas en la nanotecnología se definen como
Universidad Católica de Pereira
96
pequeños objetos que se comportan como una unidad
completa en términos de sus propiedades de transporte y
aplicación potencial. Las nanopartículas de la naturaleza ya
sean simples o compuestas son materiales que pueden ser
utilizados en numerosas aplicaciones físicas, biológicas,
biomédicas y farmacéuticas [2].
En el presente trabajo se modeló la estabilidad coloidal
de nanopartículas de sílice a partir de la energía de
interacción, para un sistema de micelas inversas compuestas
por un solvente orgánico y un surfactante con terminaciones
hidrofílicas e hidrofóbicas. Para este propósito, se utilizó la
teoría DLVO (llamada así por Derjaguin, Landau, Verwey
y Overbeek) para calcular la energía de interacción total
entre pares de partículas como una función de su tamaño y
distancia de separación [3]. Este modelo considera que las
nanopartículas de sílice tienen forma esférica y se encuentran
cubiertas por una monocapa de moléculas del surfactante,
cuya cadena hidrofóbica se extiende completamente al medio
orgánico solvente, existiendo así una buena afinidad química
entre las moléculas del surfactante y las del solvente.
La energía de interacción total (Φtotal) entre dos
nanopartículas se puede calcular a partir de la contribución
de las fuerzas de atracción y repulsión [4]. Entre estas, se
destaca la fuerza de atracción de van der Waals (ΦvdW),
la cual es dependiente del radio de las partículas (Rp), la
distancia de separación centro a centro (d), y la constante
de Hamaker (A), representando éste último parámetro
la atracción partícula-solvente-partícula [5, 6]. Por otra
parte, las fuerzas de repulsión consideran principalmente
la contribución osmótica (Φosm) proporcionada por las
moléculas de surfactantes que rodean a las nanopartículas. El
principio de repulsión se basa en el efecto de impedimento
estérico que ocurre cuando dos nanopartículas se aproximan,
ocasionando el solapamiento de las cadenas de surfactantes
y por ende la repulsión de las partículas al no poder ocupar
dos moléculas de surfactante un mismo espacio [4].
La energía de interacción total del sistema se representa
entonces como la suma de las contribuciones de van der
Waals y osmóticas, las cuales pueden modelarse como
una función del tamaño de las partículas y su distancia de
separación, tal como lo describen las ecuación (1) a (5):
(1)
(2)
(4)
(5)
Donde el subíndice 131 en la constante de Hamaker se
refiere la atracción partícula-solvente-partícula, representado
por los términos A11 (interacción partícula-partícula) y A33
(interacción entre dos moléculas de solvente). En adición,
el componente de repulsión osmótica (Φosm) depende de las
propiedades termodinámicas del sistema y las características
físico-químicas de las moléculas de surfactante y solvente,
tales como el volumen molecular del solvente (υsolv), la
fracción de volumen ocupado por la molécula de surfactante
(ϕ), la temperatura del sistema (T), la constante de Boltzmann
(KB=1.38x10-23JK-1)), la longitud de la cadena de surfactante
(l), la distancia de separación partícula-partícula (h), el
parámetro de interacción Flory-Huggins (χ), el volumen
molar del solvente (υ3 υ3), la constante de los gases ideales
(R) y el parámetro de solubilidad de Hildebrand (δi) [5].
Las nanopartículas de sílice (SiO2), están siendo
altamente utilizadas en el campo biológico, como medios
para producir biosensores, bioimágenes, dispositivos para el
diagnóstico de enfermedades e incluso para encapsulación y
liberación de fármacos. Este tipo de aplicaciones son posibles
teniendo en cuenta que las nanopartículas de sílice son
biológicamente inertes, estables y biocompatibles; además
la química de las superficies de este tipo de materiales está
tan bien documentada desde el punto de vista de reacciones
químicas, que es posible realizar modificaciones usando
precursores organosilanos que permitan unir de manera
covalente cualquier otro grupo funcional a la superficie de
las nanopartículas [7]. El tamaño promedio obtenido en
algunos estudios para las nanopartículas de sílice varía entre
los 25 y 200nm [7, 8, 9].
Se puede modificar el sistema coloidal con el fin de
aumentar o disminuir la barrera energética que afecta de
manera directa, la estabilidad del sistema. Varios métodos
pueden ser usados para este propósito, tales como cambios
de solvente y agente tensoactivo utilizado para formar las
micelas inversas [7]. Teniendo en cuenta lo anterior, esta
investigación tuvo como objetivo principal modelar la energía
total de interacción entre nanopartículas de sílice preparadas
en microemulsiones para determinar la estabilidad coloidal
del sistema según las predicciones de la teoría DLVO. Para
esto, se variaron los tipos de solventes orgánicos y agentes
tensoactivos que pueden utilizarse en la formación de las
nanopartículas por el método de micelas inversas.
II. Metodología
(3)
Entre Ciencia e Ingeniería
A. Materiales seleccionados
Los solventes orgánicos seleccionados fueron
Ciclohexano e Isooctano; y los agentes tensoactivos
97
fueron la sal sódica de sulfosuccinato de bis-(2-etilhexilo)
(AOT) y p-(1, 1, 3,3-tetrametilbutil) fenílico (TX-100).
Estos compuestos químicos fueron escogidos teniendo
en cuenta trabajos previos reportados para la síntesis de
nanopartículas por el método de micelas inversas [5, 7]. Los
sistemas coloidales estudiados fueron Ciclohexano/AOT,
Ciclohexano/TX-100, Isooctano/AOT e Isooctano/TX-100.
Se analizaron las curvas de contribución de energía total de
interacción y las curvas de energía total de interacción en
función de la distancia de separación para varios diámetros
de partícula. Todas las simulaciones fueron desarrolladas a
una temperatura de 25°C (298,15K).
Para este modelo se escogieron nanopartículas de sílice
con diámetro de partícula de 30nm, 50nm y 100nm, que son
los valores promedio reportados en algunos estudios para las
nanopartículas de sílice [7, 8, 9].
B. Fuentes de información
Los datos necesarios en el modelo DLVO para cada
sistema coloidal fueron adquiridos de las fuentes mostradas
en la Tabla I.
Tabla I
Parámetros Y Fuentes De Información
III. Resultados Y Discusión
A.1. Sistema Ciclohexano/AOT
En la Fig. 1, se muestran las contribuciones de las
fuerzas de van der Waals y osmóticas a la energía total de
interacción para el sistema ciclohexano/AOT, las cuales se
calcularon como una función de la distancia de separación
entre partículas y el tamaño de las nanopartículas. Con
los tamaños de partícula que se observan en la Fig. 1, se
evidencia que las interacciones estéricas priman sobre las
de van der Waals, lo cual indica que el sistema es estable,
al existir impedimento en la unión de las nanopartículas, y
por ende evitando su aglomeración y posterior precipitación
[12]. A medida que aumentan los tamaños de partículas, se
evidencia un aporte de las interacciones de van der Waals, las
cuales son responsables de la atracción partícula-partícula. A
partir de estos resultados se observó que el punto más bajo de
la energía local no alcanza a superar el valor de -1.5KBT, por
lo cual puede asumirse que la energía térmica no provoca la
aglomeración de nanopartículas para los tamaños evaluados
[3].
En la Fig. 2 se aprecian las curvas de energía total de
interacción para diámetros de partículas comprendidos entre
200 y 700nm. En la Fig. 2, se observa que partículas con
tamaños superiores a 500nm exhiben una pobre estabilidad
coloidal, la cual puede llevar a la precipitación de las
nanopartículas del medio de suspensión [5]. Sin embargo,
este es un diámetro de nanopartícula muy grande y poco
alcanzado en los métodos de síntesis por micelas inversas
[8], [7], [9].
A. 2. Sistema Ciclohexano/TX-100
Las curvas de energía total de interacción y las contribuciones
de atracción y repulsión del sistema Ciclohexano/TX-100
(Fig. 3 y 4), tienen similar comportamiento a las curvas
obtenidas para el sistema Ciclohexano/AOT para el rango
de tamaños de nanopartículas de sílice estudiados; aunque
se evidencia que el nuevo surfactante ensayado aumenta
levemente la estabilidad coloidal del sistema [16].
El TX-100 presenta una cadena carbonada mayor al AOT
[17], y los tensoactivos con cadenas hidrocarbonadas largas
presentan mayores estabilidades con solventes polares, como
los usados en el presente estudio. Estas cadenas afectan
directamente los parámetros de interacción Florry-Huggins,
trayendo consigo mejores interacciones surfactante-solvente,
representado en valores menores a 0,5 de este parámetro
[14]. Por ende, el mayor carácter hidrofóbico del agente
tensoactivo TX-100, debido a la mayor longitud de cadena,
incrementan la afinidad de la cadena del tensoactivo con el
solvente usado, y por ende la mayor estabilidad de la micela
[16].
Universidad Católica de Pereira
98
Fig. 1. Contribuciones a la energía total de interacción de
nanopartículas de sílice con diámetro de partícula de a) 30nm, b)
50nm y c) 100nm. Sistema Ciclohexano/AOT.
Figura 3. Contribuciones a la energía total de interacción de
nanopartículas de sílice con diámetro de partícula de a) 30nm, b)
50nm y c) 100nm. Sistema Ciclohexano/TX-100.
Fig. 2. Curva de energía total de interacción para diámetros entre
200 y 700nm. Sistema Ciclohexano/AOT.
Fig. 4. Curva de energía total de interacción para diámetros
entre 200 y 700nm. Sistema Ciclohexano/TX-100.
Entre Ciencia e Ingeniería
99
A. 3. Sistema Isooctano/AOT
En la Fig. 5, se aprecian las contribuciones a la energía
total de interacción de nanopartículas de sílice con diámetro
de partícula de 30nm, 50nm y 100nm para el sistema
Isooctano/AOT. Se evidencia que el sistema coloidal
escogido presentó más contribuciones atractivas con
respecto a los sistema Ciclohexano/AOT y Ciclohexano/
TX-100, lo cual podría indicar que el solvente Ciclohexano
es el responsable de otorgarle mayor estabilidad coloidal
al sistema de nanopartículas de sílice [18] y que además el
sistema funciona aún mejor con el TX-100.
La curva de energía total de interacción para diámetros
entre 50nm y 350nm en el sistema Isooctano/AOT (Fig.
6), indican que la estabilidad coloidal se pierde cuando las
nanopartículas de sílice alcanzan un diámetro de partícula
de 250nm. Este tamaño, sigue siendo muy grande para
nanopartículas de este tipo, aunque es menor comparado a
los sistemas que involucran al Ciclohexano como solvente,
lo cual es un indicio del mejor comportamiento coloidal del
solvente Ciclohexano para las nanopartículas de sílice [5, 7].
A. 4. Sistema Isooctano/TX-100
Las Fig. 7 y 8, indican los mismos puntos bajos de
energía local (-1.5KBT) para los sistemas Isooctano/AOT
e Isooctano/TX-100, pero con diferente recorrido en las
curvas estéricas, lo cual da una muestra de un pequeño
aporte del nuevo surfactante usado. Lo anterior, concuerda
con el sistema anterior, indicando que el mayor carácter
hidrofóbico del agente tensoactivo TX-100, mejora la
estabilidad del sistema coloidal [17, 19].
IV. Conclusiones
Los resultados de esta investigación señalan que la
mayor estabilidad coloidal para el sistema de nanopartículas
de sílice se da cuando este nanomaterial es cubierto con el
surfactante TX-100 y suspendidas en el solvente orgánico
ciclohexano, por lo que se esperaría que la combinación de
los compuestos químicos ciclohexano/TX-100 permitan la
formación de micelas inversas que sirvan para la formación
de nanopartículas de sílice proporcionando un medio para
el control de tamaño y un sistema con buena estabilidad
coloidal.
Fig. 5. Contribuciones a la energía total de interacción de
nanopartículas de sílice con diámetro de partícula de a) 30nm, b)
50nm y c) 100nm. Sistema Isooctano/AOT.
Agradecimientos
Los autores agradecen a la Universidad de Cartagena por
la beca otorgada al Ing. Diego Felipe Tirado para realizar sus
estudios de Maestría en Ingeniería Ambiental en la Facultad
de Ingeniería de dicha Alma Máter.
Fig. 6. Curva de energía total de interacción para diámetros entre
50nm y 350nm. Sistema Isooctano/AOT.
Universidad Católica de Pereira
100
Referencias
Fig. 7. Contribuciones a la energía total de interacción de
nanopartículas de sílice con diámetro de partícula de a) 30nm, b)
50nm y c) 100nm. Sistema Isooctano-/TX-100.
Fig. 8. Curva de energía total de interacción para diámetros entre 50
y 350nm. Sistema Isooctano/TX-100.
Entre Ciencia e Ingeniería
[1] K. Margulis-Goshen, and K. Magdassi, Organic nanoparticles from
microemulsions: Formation and applications, Current Opinion in
Colloid & Interface Science vol. 17, no.5., pp. 290-296, Oct. 2012.
[2] M. Ahmad, M. Younus, and M. Ali, Microemulsion method: A novel
route to synthesize organic and inorganic nanomaterials: 1st Nano
Update, Arabian Journal of Chemistry, vol. 5, no.4. pp. 397–417, Oct.
2012.
[3] C. Barrera, A. P. Herrera, N. Bezares, E. Fachini, R. Olayo-Valles, J.
P. Hinestroza, and C. Rinaldi, Effect of poly(ethylene oxide)-silane
graft molecular weight on the colloidal properties of iron oxide
nanoparticles for biomedical applications, Journal of colloid and
interface science, vol. 377, no.1., pp. 40-50. Jul. 2012
[4] S. R. Rao, Surface Chemistry of Froth Flotation, Vol. I, New York,
Fundamentals Springer Science & Business, Kluwer Academic/
Plenium Publishers, 2013, pp. 15-17.
[5] A. Herrera, O. Resto, J. G. Briano, and C. Rinald, Synthesis
and agglomeration of gold nanoparticles in reverse micelles,
Nanotechnology, vol. 16, no.7., pp. 618-625, Jun. 2005.
[6] C. H. Achebe, and S. N. Omenyi, Mathematical Determination of the
Critical Absolute Hamaker Constant of the Serum (As an Intervening
Medium) Which Favours Repulsion in the Human Immunodeficiency
Virus (HIV)-Blood Interactions Mechanism, Proceedings of the World
Congress on Engineering Vol II, London, U.K, 2013.
[7] N. Jaramillo, C. Paucar, and C. García, Influence of the reaction
time and the Triton x-100/Cyclohexane/Methanol/HO ratio on the
morphology and size of silica nanoparticles synthesized via sol-gel
assisted by reverse micelle microemulsion, Journal of Materials
Science vol. 49, no.9, pp. 3400-3406, May. 2014.
[8] K. In-Yong, E. Joachim, H. Choi, and K. Kim, K, Toxicity of silica
nanoparticles depends on size, dose, and cell type. Nanomedicine:
Nanotechnology, Biology and Medicine vol. 11, no.6, pp. 1407–1416.
Aug. 2015.
[9] M. C. Llinás, and D. Sánchez-García, Nanopartículas de sílice:
preparación y aplicaciones en biomedicina, Afinidad vol. 71, no.565,
pp. 20-31, Dic. 2014.
[10] V. Médout-Marére, A Simple Experimental Way of Measuring the
Hamaker Constant A11 of Divided Solids by Immersion Calorimetry
in Apolar Liquids, Journal of Colloid and Interface Science, vol. 228,
no.2, pp. 434–437, Aug. 2000.
[11] S. Eichenlaub, C. Chan, and S. P. Beaudoin, Hamaker Constants in
Integrated Circuit Metalization, Journal of Colloid and Interface
Science, vol. 248, pp. 389–397, Apr. 2002.
[12] J. B. Rosenholm, K. E. Peiponen, and E. Gornov, Materials cohesion
and interaction forces, Advances in Colloid and Interface Science, vol.
141, no.(1–2), pp. 48–65, Sep. 2008
[13]T. F. Tadros, Rheology of Dispersions Principles and Applications,
Wiley-VCH, United Kingdom, 2011, p. 25.
[14] R. Porcel, A. B. Jódar, M. A. Cabrerizo, R. Hidalgo-Alvarez, and
A. Martín-Rodríguez, Sequential Adsorption of Triton X-100 and
Sodium Dodecyl Sulfate onto Positively and Negatively Charged
Polystyrene Latexes, Journal of Colloid and Interface Science, vol.
239, pp. 568–576, Jul. 2001.
[15] M. A. La-Scalea, C. M. S. Menezes, and E. I. Ferreira, Molecular
volume calculation using AM1 semi-empirical method toward
diffusion coefficients and electrophoretic mobility estimates in
aqueous solution, Journal of Molecular Structure: THEOCHEM, vol.
730, no.1, pp. 111-120, Oct. 2005.
[16] A. R. Mustafina, J. G. Elistratova, O. D. Bochkova, V. A. Burilov, S.
V. Fedorenko, A. I. Konovalov, and S. Y. Soloveva, “Temperature
induced phase separation of luminescent silica nanoparticles in Triton
X-100 solutions,” Journal of colloid and interface science, vol. 354,
no.2, pp. 644-649. Feb. 2011.
[17] L. P. Singh, S. K. Bhattacharyya, R. Kumar, G. Mishra, U. Sharma, G.
Singh, and S. Ahalawat, Sol-Gel processing of silica nanoparticles and
their applications. Advances in colloid and interface science, vol. 214,
pp. 17-37, Dec. 2014.
[18] C. Barrera, A. P. Herrera, and C. Rinaldi, “Colloidal dispersions of
monodisperse magnetite nanoparticles modified with poly (ethylene
glycol),” Journal of colloid and interface science, 329(1), 107-113,
Jan. 2009.
101
[19] A. A. Araújo, E. L. Barros, O. C. Filho, y E. L. Foletto, “Determinación
de los parámetros del modelo de flory-huggins para estimación del
punto de nube de surfactantes no iónicos,” Información Tecnológica,
vol. 25, no.2, pp. 165-174, Dic. 2014.
Diofanor Acevedo Correa es Químico e Ingeniero de Alimentos de la
Universidad de Cartagena-Colombia. Especialista en Ciencia y Tecnología
de Alimentos, Universidad Nacional (Colombia). Ph.D Ingeniería de
Alimentos Universidad del Valle-Colombia. Actualmente es Docente de
planta de la Universidad de Cartagena e Investigador del grupo NUSCA.
Correo electrónico: [email protected]
Diego Felipe Tirado Armesto es Ingeniero de Alimentos de la
Universidad de Cartagena-Colombia. MS.c (c) Ingeniería Ambiental,
Universidad de Cartagena. Desde el 2012 hace parte del Grupo de
Investigación Nutrición. Calidad y Salud Alimentaria (NUSCA). Correo
electrónico: [email protected]
Adriana Herrera Barros es Ingeniera Química de la Universidad del
Atlántico-Colombia, Magister y Ph.D en Ingeniería Química, Universidad
de Puerto Rico, Mayagüez. Actualmente es Docente de Planta de la
Universidad de Cartagena, Jefa del Departamento de Investigaciones de la
Facultad de Ingeniería y Líder del Grupo de Investigación Nanomateriales
Multifuncionales. Correo electrónico: [email protected]
Universidad Católica de Pereira
102
Políticas de la Revista Entre Ciencia e Ingeniería
Identidad y objetivo de la revista
“Entre Ciencia e Ingeniería” es una revista de la
Universidad Católica de Pereira que tiene por objeto aportar
al desarrollo en ciencia básica e ingeniería mediante la
difusión de artículos que dan cuenta del avance y estado del
conocimiento, de la técnica y la tecnología y de la formación
en estas áreas.
La ciencia y la tecnología se consideran producto de la
inteligencia y están al servicio del hombre para su beneficio
y su bienestar, son muestra fehaciente e indiscutible de su
humanidad, de su naturaleza inquieta, perspicaz, aventurera
y exploradora de su realidad, que en su avance le ha
permitido subsistir, potenciarse y diferenciarse de las demás
especies aun más cuando el conocimiento se ha fraguado con
la creatividad permitiéndole diseñar herramientas, desplazar
la noche por el día o transformar la naturaleza.
Pero el ejercicio de la ciencia y la tecnología entrañan
repercusiones, algunas veces inesperadas. Las nuevas formas
de hacer y pensar pueden mejorar las condiciones de la vida
o también atentar contra los seres vivos y su hábitat, por
esto: El hombre cuanto más conoce la realidad y el mundo
y más se conoce a sí mismo en su unicidad, le resulta más
urgente el interrogante sobre el sentido de las cosas y sobre
su propia existencia.
La ciencia y la ingeniería conciben al mundo como
comprensible, con reglas que rigen su funcionamiento y las
cuales mediante un estudio cuidadoso y sistemático pueden
evidenciarse por patrones consistentes que permiten la
posibilidad de examinar las características fundamentales
que mejor describan los fenómenos y la forma en que
éstas se relacionan, será posible conocer más el mundo, su
evolución, sus transformaciones, ajustes y comportamientos
futuros.
En la búsqueda de la verdad existen aspectos que
se priorizan debido al contexto en el que está inserta la
Universidad Católica Popular del Risaralda, la mirada desde
y hacia lo regional permite la actualización y preparación en
el escenario mundial, pues se puede establecer paralelos con
el desarrollo de la ciencia y la ingeniería en el mundo.
Adicionalmente, esta mirada desarrolla una relación
de doble vía; mientras la región plantea de un sinnúmero
de oportunidades y problemas para que la Universidad se
desarrolle académicamente, se beneficia al tener soluciones
oportunas a sus necesidades, proporcionando las condiciones
adecuadas para la convivencia, la justicia, la libertad, la vida,
las oportunidades sociales y el desarrollo humano.
Entre Ciencia e Ingeniería
La manifestación más accesible y durable de la actividad
de investigación y el medio por excelencia para la difusión
del conocimiento es la publicación científica. De esta
manera “Entre Ciencia e Ingeniería” quiere hacer un aporte
con su publicación periódica para la continua renovación de
teorías, prácticas y un acercamiento a la verdad difundiendo
el quehacer científico y su posibilidad de inserción en los
contextos industriales, económicos, sociales y culturales.
Por lo tanto, los escritos referidos a esta revista deben
mantener el rigor propio de la ciencia, y enfocarse en los
recientes desarrollos en ciencia e ingeniería, sus tendencias,
validaciones y alcances. La producción de “Entre Ciencia e
Ingeniería” se respalda con un comité editorial, un arbitraje
nacional o internacional, una periodicidad de dos números
en el año y con la publicación de resultados originales de
proyectos de investigación.
Guía para autores
La revista “Entre Ciencia e Ingeniería”, está dirigida a
la comunidad académica, científica y sociedad en general
interesadas en el desarrollo de la ciencia y la ingeniería,
mediante la divulgación de trabajos de reflexión y de
investigación básica, aplicada y en educación en estas áreas.
Tipos de artículos admitidos
La revista evaluará las clases de artículos aceptados por
Colciencias a saber:
• Artículo de investigación científica y tecnológica.
Documento que presenta, de manera detallada, los
resultados originales de proyectos de investigación
terminados. La estructura generalmente utilizada
contiene cuatro apartes importantes: introducción,
metodología, resultados y conclusiones.
• Artículo de reflexión. Documento que presenta
resultados de investigación terminada, desde una
perspectiva analítica, interpretativa o crítica del autor,
sobre un tema específico, recurriendo a fuentes originales.
• Artículo de revisión. Documento resultado de una
investigación terminada donde se analizan, sistematizan
e integran los resultados de investigaciones publicadas o
no publicadas, sobre un campo en ciencia o tecnología,
con el fin de dar cuenta de los avances y las tendencias
de desarrollo. Se caracteriza por presentar una cuidadosa
revisión bibliográfica de por lo menos 50 referencias.
103
•Discusión. Posiciones críticas, analíticas e interpretativas
sobre los documentos publicados en la revista, que a juicio
del comité editorial constituyen un aporte importante a la
discusión del tema por parte de la comunidad científica
de referencia.
•Respuesta. Documento que responde a un escrito de
discusión. Es realizado por el autor del artículo que
suscitó el debate.
De la recepción y evaluación de artículos
• Los autores deben enviar su trabajo al comité editorial
de la revista, dirección electrónica [email protected].
co, adjuntando los siguientes formatos debidamente
diligenciados: ficha del autor(es), ficha del proyecto y
carta de originalidad.
• El comité editorial verifica si el documento es pertinente
con la identidad y objetivo de la revista, dado su
cumplimiento, se somete a una evaluación de carácter
disciplinar y de estilo, para su valoración respectiva.
• El evaluador disciplinar, dará su opinión especializada
sobre el artículo, siendo este un académico con formación
disciplinar adecuada para garantizar el rigor académico,
la pertinencia y la calidad del mismo; el evaluador de
estilo es un académico competente en procesos de lectura
y escritura, quien revisará la redacción, ortografía,
cohesión y coherencia del escrito. Cada uno de ellos
informará por escrito, en formatos establecidos, al comité
editorial su consideración respecto a si el artículo es apto
o no para su publicación o si requiere correcciones.
• Si el documento no es aceptado en primera instancia
por el comité editorial, se informa al autor para que este
pueda disponer del artículo.
documento al comité editorial. Los evaluadores verifican
las correcciones y le sugiere al comité si el artículo puede
o no ser publicado.
• Si el documento no es aceptado después de los resultados
del arbitramiento se informa al autor para que pueda
disponer del artículo.
• Si un artículo es rechazado, la revista tiene como política
no reconsiderar la decisión.
• El autor debe hacer una revisión final al artículo impreso
en el machote de la revista o en PDF, el cual se enviara
vía correo electrónico.
Del autor
•
El autor corresponsal, se considera que actúa de buena
fe en representación de todos los autores del escrito y se
somete con responsabilidad a garantizar la originalidad
del trabajo y de no presentar en forma simultánea el
documento a otra publicación en un lapso de 12 meses, a
menos que sea rechazado en esta revista.
•
El autor corresponsal, en nombre de los coautores, con
pleno poder otorgado por ellos, cede a la Universidad
Católica de Pereira los derechos para la publicación
del artículo en todos los idiomas y en todos los medios
posibles de divulgación.
•
Al someter un artículo, el o los autores aprueban la
publicación en papel y electrónica de su obra en la
revista “Entre Ciencia e Ingeniería”, ISSN 1909-8367,
en caso de ser aprobado por los evaluadores y el comité
editorial.
•
Los juicios emitidos por el autor o los autores del
artículo son de su entera responsabilidad. Por eso, no
comprometen ni las políticas de la Universidad Católica
de Pereira, ni las de la revista.
•
Los autores se hacen responsables de garantizar los
derechos de autor, de todo el material utilizado en el
artículo.
• Los evaluadores desconocen los nombres de los autores
y viceversa.
• Con base en los resultados de las evaluaciones
suministradas por los evaluadores, el escrito:
- Se rechaza para publicación, en el caso de que alguno
de los dos evaluadores o ambos consideren que el
artículo no cumple con las condiciones para ser
publicado.
- Se debe corregir y enviar nuevamente a evaluación, en
el caso de que uno o ambos árbitros consideren que se
deben realizar modificaciones.
- Se acepta para publicación, si ambos evaluadores
consideran que el artículo cumple con las condiciones
requeridas para tal fin.
• Cuando el documento requiere correcciones, los
autores las realizan o deciden retirar el artículo de la
convocatoria. Al realizar las correcciones, retornan el
• En cada edición solo se someterá a evaluación un solo
artículo por autor.
Del artículo
• Los artículos para publicación deberán ser inéditos y
exclusivos para la revista.
• Se aceptan trabajos en español o inglés. Prevaleciendo
las normas y el buen uso del idioma empleado.
• La extensión mínima del artículo es de 6 páginas y la
máxima de 8, siguiendo el formato y las normas respecto
Universidad Católica de Pereira
104
a imágenes, referencia, tablas y demás de la IEEE, de
acuerdo a la plantilla de la revista que se envía a los
autores.
Reglas para el formato de los artículos –
Presentación Gráfica (seguir las plantillas/ModeloArtículo presentado)
Nota: Importante cumplir con estas normas para
que su artículo sea recibido.
versalitas y numeradas con números romanos (I.
Introducción).
8. La primera letra de la primera palabra del primer párrafo
(de la Introducción) debe ser capitular de tamaño de dos
líneas. Ejemplo:
E
ste documento proporciona un ejemplo de diseño
de edición de un artículo técnico en español para la
Revista IEEE América Latina. Es una plantilla hecha
con el……
1.Los artículos deben enviarse en formato Microsoft
Word. Debe elegirse un tamaño de página Letter de
215,9×279,4 mm (8,5×11 pulgadas o 51×66 picas) con
márgenes superior, inferior, izquierdo y derecho de 16,9
mm (0,67 pulgadas o 4 picas) y doble columna con
separación central de 4,3 mm (0,16 pulgadas o 1 pica),
lo que da una columna de 88,9 mm (3,5 pulgadas o 21
picas) mm de ancho y 245,6 mm de alto (9,66 pulgadas
o 58 picas). El interlineado adoptado es de 1,05 puntos,
pudiendo variarse de 1,03 a 1,07 para ayudar a completar
páginas
9. El contenido del artículo en Times New Roman 10. Cada
párrafo comienza con tabulación de 5 espacios (sangría),
No hay espacios entre párrafos.
2. Para los artículos en español (el título, resumen y palabras
clave deben estar en español, inglés y portugués), Times
New Roman, tamaño 9 en color negro (incluyendo
enlaces y correos). Los artículos también se reciben en
inglés o portugués.
11.La leyenda de las figuras deben ser escritas “Fig. 1.
xxx “, justificada a la izquierda en Times New Roman
8, terminando con el punto; para citar las figuras en el
cuerpo del artículo, usar “ Fig. 1”. Ejemplo:
10.Título de las tablas en Times New Roman 8, mayúsculas
y con números romanos (TABLA I debajo NOMBRE
DE LA TABLA.). ejemplo:
TABLA I
TAMAÑOS Y ESTILOS DE LA LETRA TIMES NEW ROMAN
EMPLEADA EN LA COMPOSICIÓN DE UN ARTÍCULO CON ESTA
PLANTILLA O SIN ELLA
3. El artículo debe tener un promedio de seis a ocho (6-8)
páginas, sin contar referencias.
4. Título del artículo en español, en inglés y en portugués,
Times New Roman tamaño 18 y centrado, ejemplo:
Plantilla de preparación de artículos técnicos en procesador
de texto word (Microsoft)
5. Los nombres de los autores debe venir justo debajo del
título, en Times New Roman tamaño 11, en el formato.
Iniciales de los nombres seguido de punto con espacio
entre ellos y seguido del primer apellido completo.
Ejemplo, Juan Luis Arias Vargas (J. L. Arias)
6. Los Abstract (Un breve resumen del artículo) y Key
Words (palabras que permitan identificar la temática del
artículo) deben ponerse en español y en inglés, cursiva
y negrita, seguidas de un guión largo (—, ALT+0151)
sin espacio (Abstract— Key Words— ); el texto debe
contener un párrafo escrito en negrita, en español, inglés
y portugués todos en Times New Roman 9 y en negrilla.
El resumen no debe pasar de 150 palabras y no puede
contener ecuaciones, figuras, tablas ni referencias. Se
debe proporcionar palabras clave (en orden alfabético),
hasta un máximo de 10, que ayuden a identificar los
temas o aspectos principales del artículo.
7. Título de sección en Times New Roman 10, en letras
Entre Ciencia e Ingeniería
Fig. 1. Inducción magnética en función del campo magnetizante.
(Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del
texto)
12.Las ecuaciones deben ser justificadas a la izquierda
y numeradas con números arábigos entre paréntesis
justificado a la derecha.
13.El título del apéndice debe ser centrado y cada uno de
los apéndices justificado a la izquierda, con la etiqueta
Apéndice A: xxx, Apéndice B: xxx.
14.Las secciones Referencias y Agradecimientos no se
numeran, tipo de letra Times New Roman, tamaño 8,
y debe seguir exactamente el modelo IEEE es decir,
numeradas en orden de aparición y de acuerdo al tipo de
105
documento que se esté referenciando (ver el modelo para
cada tipo de documento: libros, artículos, mpaginas web
etc). Dentro del documento aparece por ejemplo [1] y al
final en la sección de REFERENCIAS el formato debe
ser:
[1]
[2]
[3]
J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics
on power distribution system protection,” IEEE Trans. Power
Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988.
E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas
Propagat., to be published.
R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas
as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online].
21(3), pp. 876-880. Disponible en:
Universidad XXX-NOMBRE DE LA UNIVERSIDAD-XXXX.
J.L. Vargas, Magister XXXX, Universidad Católica de Pereira,
Pereira (Colombia); email: [email protected].
J. V. Pedraza, PhD XXXX, Universidad Católica de Pereira, Pereira
(Colombia); email: [email protected].
M. Ruiz, Magister XXXX, Universidad Católica de Pereira, Pereira
(Colombia); email: [email protected].
Nota: en la página web de la revista http://biblioteca.ucp.edu.
co/OJS/index.php/entrecei, puede encontrar y bajar todos los
formatos y guía para autores.
15.El artículo debe tener las Biografías de los autores al
final, seguir el formato definido en el modelo, la foto es
obligatoria. Deben venir después de las referencias, sin
título de sección, con tipo de letra Times New Roman
8. Los nombres de los autores con apellidos, en negrita.
Ejemplo:
Nikola Tesla (M’1888, F’17)
nació en Smiljan, Yugoslavia, el 9
de Julio de 1856. Se graduó en la
Escuela Politécnica Austriaca de
Graz y estudió en la Universidad
de Praga.
Ejerció profesionalmente en
la American Telephone Company
de Budapest, la Edison Machine
Works, la Westinghouse Electric
Company y los Laboratorios
Nikola Tesla. Entre sus campos de
interés estaban los fenómenos de
alta frecuencia.
El ingeniero Tesla recibió títulos honoríficos de diversas
instituciones de enseñanza superior entre las que se encuentran
las universidades de Columbia, Yale, Belgrado y el Zagreb.
Obtuvo la Medalla Elliott Cresson del Instituto Franklin y la
Medalla Edison del IEEE. En 1956, el término “tesla” (T) fue
adoptado como unidad de inducción magnética, o densidad de
flujo magnético, del sistema de medidas MKSA. En 1975 la
Power Engineering Society estableció el Premio Nikola Tesla
en su honor. Tesla murió en Nueva York el 7 de enero de 1943.
16.Si el artículo es resultado de investigación debe llevar un
pie de página en la primera hoja columna de la izquierda,
indicando: el nombre del proyecto del cual se deriva,
la facultad o departamento, la institución y el grupo
de investigación al cual pertenece, en letra Times New
Román tamaño 8. Al igual que en el contenido del artículo
cada párrafo comienza con tabulación de 5 espacios. Y
no hay espacios entre párrafos. El tamaño de interlineado
es 1.0. Seguido debe llevar como pie de página en la
primera hoja columna izquierda, la información de los
autores en la cual se mencione: Los nombres tal como
aparecen en la parte superior (Iniciales del nombre y
el primer apellido completo), seguido de la afiliación
laboral, ciudad-País y correo electrónico Ejemplo:
1
Producto derivado del proyecto de investigación “X-NOMBRE
PROYECTO-XXXX”. Presentado por el Grupo de Investigación
X-NOMBRE GRUPO DE INVESTIGACIÓN-XXXX, de la facultad
o departamento XX-NOMBRE DE LA FACULTAD-XXXX, de la
Universidad Católica de Pereira

Documentos relacionados