Entre Ciencia e Ingeniería - Biblioteca Cardenal Darío Castrillón

Comentarios

Transcripción

Entre Ciencia e Ingeniería - Biblioteca Cardenal Darío Castrillón
1
Directivos Consejo Superior
Monseñor Rigoberto Corredor Bermúdez
Pbro. Diego Augusto Arcila Vélez
Pbro. Behitman Céspedes de los Ríos
Pbro. Rubén Darío Jaramillo Montoya
Pbro. John Fredy Franco Delgado
Dr. Bernardo Gil Jaramillo
Dr. Javier Morales López
Dr. Jaime Montoya Ferrer
Dra. María Clara Buitrago Arango
Estudiante Camilo Bedoya Restrepo
Rector
Pbro. Diego Augusto Arcila Vélez
Vicerrector Académico
Willmar de Jesús Acevedo Gómez
Decano de la Facultad de Ciencias Básicas e Ingeniería
Juan Luis Arias Vargas
Director Programa de Ingeniería Industrial
Paula Milena Ríos González
Director Programa Ingeniería de Sistemas y Telecomunicaciones
Alonso Toro Lazo
Director Programa de Tecnología en Sistemas
Lina María Suárez Vásquez
Director Depto de Ciencias Básicas
James Andrés Barrera Moncada
Universidad Católica de Pereira
2
ENTRE CIENCIA E INGENIERÍA
ISSN 1909-8367
Es una revista de la Facultad de Ciencias Básicas e Ingeniería, que tiene por objeto aportar al desarrollo en ciencia
básica e ingeniería mediante la difusión de artículos que den cuenta del avance y estado del conocimiento, de la
técnica y de la tecnología y de la formación en estas áreas.
La revista Entre Ciencia e Ingeniería esta admitida en:
·
·
·
·
·
·
·
Índice de Publicaciones Seriadas Científicas y Tecnológicas (PUBLIDEX Categoría B)
Índice Latinoamericano de Revistas Científicas y Tecnológicas (LATINDEX)
Base de Datos SciELO Colombia
Base de Datos Informe Académico Plus Publications (EBSCOhost)
Índice Actualidad Iberoamericana (Instituto Iberoamericano de Información en Ciencia)
Base de Datos Informe Académico (GALE)
Red Colombiana de Revistas de Ingeniería
En su publicación periódica hace un aporte para la continua renovación de teorías y un acercamiento a la verdad
difundiendo el quehacer científico y su posibilidad de inserción en los contextos industriales, económicos,
sociales y culturales.
Se autoriza la reproducción total o parcial de su contenido siempre y cuando se cite la fuente. Los conceptos
expresados en los artículos son responsabilidad exclusiva de sus autores.
Universidad Católica de Pereira
Av de las Américas Carrera 21 No 49-95 Pereira, Colombia
Teléfono 3124000 ext 1019 y 1029
Http://biblioteca.ucp.edu.co/OJS/index.php/entrecei
[email protected]
Periodicidad semestral
Diagramación e Impresión
ARPI Artes Gráficas
Impreso en Colombia - Printed in Colombia
ARPI Artes Gráficas
Calle 19 No 12-69 Centro Comercial Fiducentro
Local B-001,Tel 334 4258 Pereira - Colombia
© Reservados todos los derechos de autor
ISSN 1909 - 8367
Pereira, Colombia
Entre Ciencia e Ingeniería
3
Comité Científico
PhD. Diego Muraca
Universidad Estatal de Campinas (Brasil)
PhD. Victor Leiva
Universidad Adolfo Ibáñez (Chile)
PhD. Christian Alexis Lazo Ramírez
Universidad Austral de Chile
Director
PhD. (C) Line Yasmin Becerra Sánchez
Universidad Católica de Pereira
Editor
Universidad Católica de Pereira
PhD. Sergio Neftalí Torres Inostroza
Universidad Politécnica de Valencia
PhD. Daniel Linares
Universidad de San Luis (Argentina)
PhD. Antonio Sanhueza
Universidad de La Frontera, Temuco, (Chile)
Corrección de estilo
Esp. Jair del Carmen Rodríguez Velásquez
Universidad Católica de Pereira
Arbitros
Comité Editorial
PhD (c). Elmer Alexis Gamboa Peñaloza
Universidad de Sao Paulo
PhD. (C) Line Yasmin Becerra Sánchez
Universidad Católica de Pereira
PhD (c). Luis Eduardo Pelaéz Valencia
Universidad Católica de Pereira
PhD. Diego Fernando Arias Mateus
Universidad Católica de Pereira
PhD. Carlos Julio Vidal Holguín
Universidad del Valle
Msc. Juan Luis Arias Vargas
Universidad Católica de Pereira
PhD. Laura Mariela Pramparo
Universidad Militar Nueva Granada
PhD. Jhon Jairo Padilla Aguilar
Universidad Pontificia Bolivariana (Bga.)
MsC. Eduin Dionisio Contreras Castañeda
Universidad de Boyacá
PhD. John Makario Londoño Bonilla
Universidad de Caldas
Wilson Bolívar Buriticá
Universidad de Antioquia
PhD. Liliana López Kleine
Universidad Nacional de Colombia
MsC. Wilson Vargas Vargas
Universidad Distrital Francisco José de Caldas
para este número
PhD (c). Elvis Eduardo Gaona García
Universidad Distrital Francisco José de Caldas
PhD. José Angel Colina Márquez
Universidad de Cartagena
PhD. Javier Roldán Mckinley
Universidad del Atlántico
PhD. Luis Rodríguez Baena
Universidad Internacional de la Rioja
PhD. Diofanor Acevedo Correa
Universidad de Cartagena
PhD. Oscar Fabián Higuera Cobos
Universidad del Atlántico
Est. PhD. Héctor Fabio Bermúdez Orozco
Universidad del Quíndio
Universidad Católica de Pereira
4
Entre Ciencia e Ingeniería
5
CONTENIDO
Editorial
7
Desarrollo e interacción de un laboratorio virtual asistido y controlado por PLC
Development and interaction of a virtual laboratory assisted and controlled by PLC
Desenvolvimento e interação de um laboratório virtual assistido e controlado por PLC
C. A. Cáceres y D. Amaya
9 - 15
Control óptimo conmutado de un convertidor CC-CC
Switched optimal control of a DC-DC converter
Controle ótimo comutado de um conversor CC-CC
D. E. Méndez, J. Sánchez y R. Álzate
16 - 21
Determinación de la concentración de cadmio en un chocolate colombiano con 65% de
cacao y chocolates extranjeros con diferentes porcentajes de cacao
Determination of the concentration of cadmium in a Colombian chocolate with 65% of
cocoa, and foreign chocolates with different cocoa percentages
Determinação da concentração de cádmio num chocolate colombiano com 65% de cacau e
chocolates estrangeiros com diferentes porcentagens de cacau
A. Echeverry y H. Reyes
22- 32
Construcción de modelos 3D para la enseñanza de la Ley de Gauss en forma diferencial
Building 3D models in order to teach the Gauss’ Law in a differential form
Construção de modelos 3D para o ensino da lei de Gauss em forma diferencial
A.A. Rojas, G.A. Atehortúa, R.G. Márquez, D. Osorio, S. López y C.E. Mora
33 - 39
Análisis y clasificación de atributos de mantenibilidad del software: una revisión
comparativa desde el estado del arte
Analysis and classification of software maintainability attributes: a comparative review from
the state of the art
Análise e classificação de atributos de manutenção do software: uma revisão comparativa
desde o estado da arte
J.D. Erazo, A. S. Florez y F.J. Pino
40 - 49
Poligonación topográfica de alta precisión en el campus de la Universidad del Quindío
Topographic traversing of high accuracy inside the campus of Universidad del Quindío
Poligonacao topográfica de alta precisão no campus da Universidad del Quindío
J. Garzón, G. Jiménez y X. Cifuentes
50- 60
Prototipo de potenciostato con aplicaciones en procesos electroquímicos
Potentiostat prototype with applications in electrochemical processes
Protótipo de potenciostato com aplicações em processos electroquímicos
B. Segura, F. N. Jiménez y L. R. Giraldo
61 - 69
Métodos para determinar el factor de intensidad de esfuerzos
Methods to determine the stress intensity factor
Métodos para determinar o fator de intensidade de esforços
J. A. Grajales y L. V. Vanegas
70 - 80
Universidad Católica de Pereira
6
Índice para medir la situación digital rural: caso de jóvenes escolarizados
Index to measure the rural digital situation: case of young students
ndice para medir a situação digital rural: caso de jovens escolarizados
O. A Vega
81 - 88
Tecnología de membranas: desarrollo histórico
Membrane technology: historical development
Tecnologia de membranas: desenvolvimento histórico
C.A. Solís, C.A. Vélez y J.S. Ramírez
89 - 98
Cálculo del factor de concentrador de esfuerzos en placas planas utilizando diferentes
elementos de discretización por medio del método de elementos finitos
Calculation of stress concentrator factor in flat plates using different elements of discretization
by the finite element method
Cálculo do fator de concentrador de esforços em placas planas utilizando diferentes
elementos de discretização através do método de elementos finitos
J.S. Clavijo, C.D. Montoya y L.C. Flórez
99 - 107
Especificación de requisitos de software: una mirada desde la revisión
teórica de antecedentes
Software requirements specification: an overview from the theoretical background checking
Especificação de requisitos de software: um olhar a partir da revisão teórica de antecedentes
A. Toro y J. G. Gálvez
108 - 113
Software educativo para el buen uso de las TIC
Educational software for the proper use of ICT
Software educativo para um bom uso das TIC
E. Murcia, J.L. Arias y S. M. Osorio
114 - 125
Políticas de la Revista
126 - 129
“Entre Ciencia e Ingeniería” Magazine Policies
130 - 133
Politicas da Revista entre Ciência e Engenharia
134 - 137
Entre Ciencia e Ingeniería
7
Editorial
EL PROGRAMA DE INGENIERÍA DE SISTEMAS Y TELECOMUNICACIONES
DE LA UNIVERSIDAD CATÓLICA DE PEREIRA HA LOGRADO
LA ACREDITACIÓN DE ALTA CALIDAD
El concepto de calidad se debe leer en contexto.
Existen disciplinas, profesiones y quizás, personas,
que consideran la calidad como un tema de
concepción precisa y absoluta. Es decir, la calidad
tratada de manera booleana, existe o no; y esto,
sumado a una mirada ortodoxa que implica evaluar
con el mismo concepto de calidad a la generalidad.
Escrito de otra forma, todas las organizaciones y
todos los procesos, manejando un mismo concepto
de calidad.
En Educación Superior, el concepto es más flexible,
pero la forma de llegar a él es rigurosa. El Consejo
Nacional de Acreditación-CNA considera que la
calidad aplicada a las Instituciones de Educación
Superior está relacionada con la forma como se
presta el servicio de educación. De manera general,
la calidad como un atributo del servicio público.
Para la Universidad Católica de Pereira es un valor
institucional; un principio que orienta la labor de
quienes la integran. Se considera la calidad como
una práctica de mejoramiento continuo. Cómo
hacer las cosas bien, hacer las cosas bien y de la
mejor manera posible.
Desde sus orígenes, en el año 2003, la Facultad
de Ciencias Básicas e Ingeniería ha interpretado
este principio como la necesidad de actuar bien,
con coherencia y rigurosidad, siempre buscando
la excelencia. Esto, para que la facultad pueda
ser señalada por parte de la sociedad, como una
que tiene excelentes grupos de investigación,
excelentes revistas científicas, excelentes
programas académicos de pregrado y posgrado,
etc. Lo anterior, soportado en un excelente equipo
humano, preocupado permanentemente por su
desarrollo personal y profesional y, por defecto,
del desarrollo institucional.
Hoy, 13 años después, en el 2016, la facultad
cree que estos esfuerzos, estas buenas prácticas,
han surtido efecto: se cuenta con una revista
de ingeniería reconocida por la calidad de su
contenido, clasificada en índices y bases de
datos nacionales e internacionales (Categoría B
de PUBLINDEX, LATINDEX, Base de datos
Fuente Académica Plus – EBSCO, Base de
datos Informe Académico – Académica Onefile,
Índice Actualidad Iberoamericana); se cuenta
también con dos grupos de investigación, GEMA
Y GIII, con producción científica y académica
importante y que los ha llevado a la clasificación
por COLCIENCIAS en las categorías B y C
respectivamente; y finalmente, se cuenta con
la acreditación en alta calidad del programa
Ingeniería de Sistemas y Telecomunicaciones.
Precisamente, ésta última ocupa el propósito de la
editorial. Haber recibido esta acreditación por parte
del CNA, es recibir buenas noticias para toda la
comunidad universitaria. Se acredita la existencia
de excelentes profesores y el trabajo llevado a
cabo por éstos en las dimensiones sustantivas:
docencia formación, investigación y proyección
social; se acredita el trabajo de los estudiantes
y se acredita el trabajo del personal directivo y
administrativo que trabaja permanentemente para
soportar de la mejor forma el desarrollo normal de
las actividades académicas.
Dado que Ingeniería de Sistemas y
Telecomunicaciones surge como respuesta a los
problemas que la región presenta en el contexto
genérico de las Tecnologías de la Información y
la Comunicación, obtener la acreditación permite
reconocer también la conexión que existe entre
lo que hace la universidad y la pertinencia con
los problemas locales y regionales. Es decir,
Universidad Católica de Pereira
8
tratamiento de los problemas regionales con
calidad y mediante una institución inteligente,
tal como se presenta en su Proyecto Educativo
Institucional - PEI.
Entonces, aunque algunos expertos presenten
el concepto de calidad como elusivo, para la
Universidad Católica de Pereira ha resultado fácil
encontrar una definición directa: el mejoramiento
continuo como una forma de hacer las cosas, como
un estilo de vida personal e institucional.
Sin embargo, y aún con la claridad del valor
institucional y el principio orientador, llegar a
la acreditación en alta calidad, ha sido una tarea
ardua para la Facultad de Ciencias Básicas e
Ingeniería y en particular para el mismo programa
de Ingeniería de Sistemas y Telecomunicaciones.
Un elemento fue clave para lograrlo, la filosofía de
Proyecto de Vida. Los directivos, administrativos
y profesores, al leer y comprender adecuadamente
la Institución, aceptan claramente que su forma
de hacer las cosas es al estilo proyecto de vida.
Hacer las cosas buscando siempre el bien del otro,
y mejorarlas para mejorar la vida del otro y de
quienes integran la comunidad universitaria. Así,
el concepto de calidad se va configurando y con el
tiempo, acreditando.
Los procesos de aseguramiento de la calidad en
educación superior siguen un patrón común:
Entre Ciencia e Ingeniería
un conjunto de opciones y de acciones que
deben ser tomadas y tenidas en cuenta para
atender una necesidad con pertinencia, con
coherencia, con contexto y con personal idóneo.
La universidad, por orientación de las facultades
y con el apoyo del departamento de planeación,
vigilan constantemente, mediante procesos de
autoevaluación, que este patrón común no se
descuide, y por el contrario siempre se potencia. De
esta forma, en un cambio, en una transformación,
siempre se parte de un proceso de autoevaluación
en el que interviene un colectivo. Así, se garantiza
sostener la calidad por la fortaleza de los colectivos
y las decisiones colegiadas, y no por el capricho
particular.
Somos conscientes del reto que significa haber
logrado esta acreditación y de la responsabilidad
que se tiene de trazar la ruta para los demás
programas académicos de pregrado y posgrado
adscritos a la facultad. Por esto, confirmamos que
el Señor ha estado grande con nosotros, y estamos
alegres.
Felicitaciones a la región, felicitaciones a la
Universidad Católica de Pereira, a la Facultad de
Ciencias Básicas e Ingeniería y al Programa de
Ingeniería de Sistemas y Telecomunicaciones.
PhD (c) Luis Eduardo Peláez Valencia
9
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 9-15
Desarrollo e interacción de un laboratorio virtual asistido y
controlado por PLC1
Development and interaction of a virtual laboratory assisted and
controlled by PLC
Desenvolvimento e interação de um laboratório virtual assistido
e controlado por PLC
C. A. Cáceres y D. Amaya
Recibido Junio 18 de 2015 – Aceptado Febrero 19 de 2016
Resumen - Hoy en día el elemento básico en la industria
es el PLC, cuya función principal es controlar los sistemas y
procesos presentes en la industria. El uso de laboratorios
virtuales en fases preliminares al completo montaje de las
líneas de producción resulta muy útil para ahorrar dinero y
tiempo. Se presenta la ventaja de poder tener los controladores
y la lógica secuencial ya funcionando en su gran mayoría, antes
de tener el sistema completamente listo. Éste artículo presenta
un desarrollo e implementación de un ambiente virtual de una
banda trasportadora en una cervecería. A través del protocolo
OSC, el laboratorio virtual y el PLC, puede comunicarse y
lograr una emulación del sistema real en un ambiente virtual,
donde el PLC ha sido programado como se haría para una
industria.
Palabras clave --- laboratorio virtual, modelo matemático,
modelo virtual, PLC.
Abstract - Nowadays, the basic element to be used in the
industry is the PLC, whose main function is to control the
systems and processes in the industry. The use of virtual labs in
preliminary stages in the complete assembly of the production
lines helps to save money and time. It gives the advantage of
having controllers and sequential logic mostly working, before
1
Producto derivado del proyecto de investigación INO 1638
“Laboratorio virtual aplicado al control de procesos industriales”.
Presentado por el Grupo de Investigación Grupo de Aplicaciones Virtuales
GAV, de la Universidad Militar Nueva Granada.
C. A. Cáceres Asistente de Investigación en el Grupo de Aplicaciones
Virtuales GAV de la Facultad de Ingeniería, Departamento de Ingeniería
en Mecatrónica, de la Universidad Militar Nueva Granada, Bogotá D-C.
(Colombia); email: [email protected]
D. Amaya Docente de tiempo completo e investigador principal
del Grupo de Aplicaciones Virtuales GAV de la Facultad de Ingeniería,
Departamento de Ingeniería en Mecatrónica, de la Universidad Militar
Nueva Granada, Bogotá D-C. (Colombia); email: [email protected]
edu.co.
having the system completely ready. This paper presents the
development and implementation of a virtual environment of
a conveyor belt in a brewery. Through the OSC protocol, the
virtual laboratory and the PLC can communicate and achieve
emulation of the real system in a virtual environment, where the
PLC has been programmed as it would be done for an industry.
Key words--- virtual laboratory, mathematical model,
Virtual model, PLC.
Resumo – Hoje em dia o elemento básico da indústria é o
PLC, cuja função principal é controlar os sistemas e processos
presentes na indústria. A utilização de laboratórios virtuais
em montagem completa de estágios preliminares das linhas
de produção é muito útil para economizar tempo e dinheiro.
Apresenta-se a vantagem de poder ter os controladores e a
lógica sequencial já funcionando em maior parte, antes de ter
o sistema completamente pronto. Este artigo apresenta um
desenvolvimento e implementação de um ambiente virtual
de um conjunto de transportadores de cervejaria. Através
do protocolo OSC, o laboratório virtual e o PLC, podem
comunicar-se e alcançar uma emulação do sistema real em um
ambiente virtual, onde o PLC foi programado como seria feito
para uma indústria.
Palavras chave: laboratório virtual, modelo matemático,
modelo virtual, PLC.
I. Introducción
L
OS sistemas automáticos modernos usan en su gran
mayoría PLCs, los cuales se encargan de coordinarlos.
Claramente, la industria actual requiere ingenieros con
grandes capacidades y conocimientos en automatización.
Uno de los mayores retos es encontrar la manera de enseñar
la programación de los PLCs a los estudiantes [1].
Universidad Católica de Pereira
10
La programación del PLC es usualmente enseñada
en cursos de automatización de pregrado, donde muchos
centros educativos no tienen los recursos para que sus
estudiantes sean usuarios competentes de los PLCs [2]. Las
desventajas de los laboratorios tradicionales y los sistemas
físicos son principalmente que requieren mantenimiento
constante, inversión y adecuación de un gran espacio
para su uso, la mayoría de estos factores no pueden ser
resueltos fácilmente por instituciones educativas [1] [3] [4].
Afortunadamente casi todos estos problemas pueden ser
resueltos por medio del uso de laboratorios virtuales, que
además de presentar facilidades de espacio y uso, algunos
estudios han demostrado que la enseñanza virtual del uso de
los PLCs es muy útil en el entorno académico enfocado a la
capacitación profesional [5].
En [6] se desarrolló un laboratorio virtual con la facilidad
de ser accesible para los estudiantes a experimentos en el área
de la electrónica y la automatización por medio de internet
comunicándose a un software de simulación como lo es
Simulink de Matlab, donde se accede a diferentes modelos
con opción de controlarlos y editar ciertas características. En
[7] se proponen dos laboratorios virtuales con un enfoque a
la enseñanza de diferentes estrategias de control digital de
una planta, el primero ofrece una herramienta para asistencia
por ordenador y experimentos prácticos estructurados.
El segundo ofrece un ambiente Matlab, que permite a los
usuarios crear y diseñar experimentos de control bajo el
lenguaje Matlab.
En [8] se propone una alternativa al problema de la
alta demanda de equipos de automatización y control por
parte de las universidades, que son modelos de máquina
implementados en un ambiente virtual, con el propósito
de sustituir todos estos componentes. Ya en [9] se presenta
una aplicación real de un proceso industrial, inmerso en
un laboratorio virtual, que se enfoca en el diseño técnico,
el desarrollo y operación del laboratorio en tiempo real,
demostrando los principios de la automatización industrial.
Existen diferentes tipos de laboratorios virtuales, por
ejemplo el planteado por [10] propone un laboratorio
virtual y remoto con acceso desde un teléfono celular, pero
con elementos únicamente discretos y presentados en 2D.
En [11] se plantea un modelo virtual y remoto para ser
controlado con un PLC mostrando el sistema controlado con
gráficos similares a los sistemas SCADA. En [12] se realiza
un laboratorio remoto con trasmisión de video de la planta
real y con el uso de un PLC físico. Por otro lado en [13]
[14] [15] [16] se proponen laboratorios virtuales que simulan
diferentes entornos para el aprendizaje de distintos tópicos.
Desde el punto de vista industrial, el uso de laboratorios
virtuales nace con la necesidad de optimizar el tiempo de
desarrollo de los proyectos. En las plantas industriales, el
montaje de cualquier sistema o proceso, toma un gran tiempo,
al cual se le suma el periodo de programación y verificación
de los algoritmos diseñados para el PLC. Con el uso de un
Entre Ciencia e Ingeniería
laboratorio virtual, se pueden realizar el montaje del sistema o
proceso, y paralelamente programar el PLC correspondiente
al proceso que se está ensamblando y verificarlo por medio
del laboratorio virtual, dicho método optimiza el tiempo de
desarrollo del proyecto, lo cual implica un ahorro de dinero.
Los software de simulación de los PLC pueden ser
clasificados en PLC Virtual y Entorno Virtual [1]. Un
Entorno virtual, lleva al mundo virtual el controlador y el
proceso, por otro lado el PLC virtual, tiene un proceso real
y un PLC virtual [1] [17]. En este trabajo se presenta un
proceso virtual y un PLC real, lo cual puede clasificarse en un
sistema “Híbrido Real-Virtual” en un sistema de manufactura
automática. La principal ventaja es que la programación del
PLC real puede ser probada y verificada antes de terminar
el proceso real, desde los eventos discretos, diseñados por
GRAFCET hasta los temporizadores, controladores PID y
demás.
El presente artículo se divide en cinco secciones. Primero
se muestra un breve estado del arte, objetivos y justificación
del trabajo. Posteriormente se muestra el método en
que se desarrolló el trabajo y los materiales utilizados.
Seguidamente los resultados que mostró en el desarrollo del
trabajo. Por último las conclusiones obtenidas del trabajo y
las referencias.
II. Materiales y métodos
El desarrollo del laboratorio virtual propuesto está
conformado por el control de una banda transportadora, cuya
principal función es movilizar contenedores con botellas
dentro de una cervecería. Al final de la banda, se encuentra
un manipulador encargado de retirar las botellas y ubicarlas
en otra sección de la línea de producción.
El procedimiento utilizado para llevar a cabo este trabajo
está compuesto por tres etapas, la primera es la definición del
proceso y sus componentes, posteriormente se encuentran
los modelos matemáticos en tiempo continuo del proceso
a controlar, así como del controlador, y por último se
establece el protocolo de comunicación, la integración del
ambiente virtual y el desarrollo del software, para elaborar
la integración de variables, hardware y software. En la
Fig. 1 se presenta un esquema general que explica lo dicho
anteriormente.
Para el desarrollo fue utilizado un PLC Siemens S7-1200
conectado a un ordenador a través de un protocolo OPC,
con el propósito de enviar comandos al ambiente virtual
y efectuar las acciones de control pertinentes al proceso
simulado.
11
Tabla II
Definición de la Máquina de Estados y el Estado de los
Actuadores
Una vez se ha realizado la definición de las
variables y sus estados, se elaboró el esquema mostrado en
la Fig. 2, que ilustra de mejor manera el comportamiento de
la máquina en cada una de las etapas del proceso.
Fig. 1. Esquema general del sistema desarrollado.
Definición del proceso y sus componentes
El proceso seleccionado para la elaboración
del laboratorio virtual es una banda transportadora para
movimiento de botellas en una fábrica de cerveza, debido
a que este proceso cuenta con todos los elementos que
pueden encontrarse en cualquier área de la industria,
como manipuladores, controladores, bandas de transporte,
sensores, entre otros.
Se presenta el proceso de la banda trasportadora como
una máquina de estados con sus correspondientes variables
y estados, en las tablas 1 y 2 respectivamente.
Fig. 2. Diagrama de estados del proceso.
La ubicación de los sensores dentro del proceso
modelado es como se muestra en la Fig. 3, la mayoría de
estos están relacionados directamente con el movimiento del
manipulador, debido a la cantidad de movimiento que debe
realizar.
Tabla I
Definición de Variables del Sistema
Fig. 3. Representación de la planta y sus sensores.
Modelo matemático y discretización
Tras definir el proceso como una máquina de estados es
importante conocer qué va a controlar el PID1 de la Tabla 1.
El proceso análogo a controlar es la velocidad de la banda
trasportadora. El cual se basa en un motor DC controlado
por armadura [14].
Primero se desarrolla el modelo del motor, el cual se
pone en términos de la velocidad angular que posteriormente
Universidad Católica de Pereira
12
(4)
se relaciona con la velocidad de la banda. Posteriormente
se discretiza el modelo matemático, todo con el objetivo de
tener una mejor aproximación a la dinámica real del sistema.
Por otro lado el modelo del motor se toma según
[14] como una aproximación del mismo, donde: w(s)
es la velocidad angular del motor, Va(s) el voltaje de
entrada del motor, K1 y K2 constantes del sistema,
donde Va es el voltaje de
armadura, Ra la resistencia de armadura, Kma es una constante
dada dependiente del motor que relaciona la corriente de
entrada de armadura (la) con el torque resultante del motor (Tm)
representa el campo electromagnético
inducido por la rotación de la bobina en un campo magnético
que es proporcional a la velocidad angular w Vb(s) = Kb +
w(s), J es la carga inercial del eje del motor, La la bobina de
la armadura del motor y c el coeficiente de viscosidad [14].
(1)
Si se asume que el tiempo constante del circuito eléctrico
es mucho más pequeño que el tiempo constante de la
dinámica de carga, la función de transferencia anterior queda
como la siguiente ecuación [14].
(2)
Que en términos de K1 y K2
(3)
Aplicando la transformada inversa de Laplace
Fig. 4. Diagrama de uso del sisteme híbrido
Entre Ciencia e Ingeniería
(5)
El método de discretización se basa en la definición de la
derivada, donde: f es una función cualquiera, f 1 la derivada
de f , T el tiempo de muestreo.
(6)
Y discretizándola por la definición de la derivada, se
obtiene la velocidad angular del motor.
(7)
(8)
Sabiendo que la velocidad V de la banda transportadora,
es igual a V(K) = w(K)r, donde r es el radio del rodillo donde
está conectado el motor. Se obtiene la ecuación 1, la cual
corresponde a la velocidad de la banda trasportadora. Dicha
ecuación en diferencias fue programada en el laboratorio
virtual para lograr que la banda transportadora funcione con
una gran similitud al modelo real.
(9)
Protocolo de comunicación
Para la comunicación entre el PLC real y el laboratorio
virtual se empleó el protocolo TCP/ IP, el cual fue utilizado
junto a el protocolo OPC de cliente y servidor. El cliente
es el computador con el proceso virtual desarrollado en
Java (Processing), y el servidor OPC fue desarrollado en
C#. Dicho servidor puede ser usado en el mismo PC o en
13
uno remoto. El cliente OPC actualiza la información del
laboratorio virtual escribiendo y leyendo variables. El último
paso es seleccionar las marcas, las entradas y las salidas del
PLC, para que correspondan a las entradas o salidas del
laboratorio virtual.
actualiza sus variables en cada nuevo cuadro de pantalla
(frame). Se puede apreciar un diagrama del funcionamiento
del software en la Fig. 7.
El diagrama de uso del software corresponde a la Fig. 4 y
el diagrama de clases a la Fig. 5, donde se puede apreciar el
diseño y estructura del programa desarrollado.
Fig. 7. Funcionamiento del Software.
Integración de variables
La integración de las variables entre el PLC y el
laboratorio virtual son ubicadas en la memoria del PLC.
Donde cada registro de memoria de una variable del PLC
corresponde a una entrada o salida del laboratorio virtual.
Los registros de memoria del PLC están dados por bytes,
por lo tanto, al interpretarse la memoria del PLC se logra el
trabajo conjunto entre el laboratorio virtual y el PLC.
Fig. 5. Diagrama de clase del ambiente virtual.
Integración del ambiente virtual y desarrollo de
software
El proceso de ensamble es requerido para organizar el
entorno virtual y todos los modelos 3D realizados en el
software CAD. Es importante definir las limitaciones del
entorno, las funciones, las dinámicas, entradas, salidas,
definición de variables, verificación y validación del sistema.
En este proceso se utilizó el lenguaje de programación Java,
en Processing. El entorno virtual se muestra en la Fig. 6.
La tabla 3 muestra la asignación de variables del
PLC, que posteriormente indicará si son una variable de
lectura o escritura del laboratorio virtual. De acuerdo a la
nomenclatura de las variables del PLC si tienen la letra M,
son marcas internas del PLC; las que tienen la letra I son
entradas y la letra Q son salidas.
Tabla iii
Variables del plc
Integración de hardware y software
Fig. 6. Integración del laboratorio virtual.
Por otro lado el software trabaja con dos hilos asíncronos,
cada uno con una función específica en el laboratorio virtual.
El primero se encarga del proceso gráfico del laboratorio,
y el segundo se encarga de calcular constantemente las
respuestas discretas o dinámicas del sistema. Cada hilo
La conexión entre el PLC y el laboratorio virtual,
el protocolo OPC y las variables del laboratorio virtual
trabajaron según lo esperado con el programa del PLC
desarrollado. Se logró ver la interacción entre el laboratorio
virtual y el PLC real, controlando salidas reales del PLC (Q
0.0, Q 0.1 y Q 0.2 – correspondientes a los actuadores 1,2
y 3) según los requerimientos del laboratorio virtual. En la
Fig. 8, se puede ver el laboratorio virtual en funcionamiento.
Universidad Católica de Pereira
14
Fig. 10. Respuesta de velocidad de la banda trasportadora.
Fig. 8. Laboratorio virtual en funcionamiento.
La respuesta del sistema, en su parte análoga fue obtenida
desde el laboratorio virtual. Se puede verificar en la figura 11
que la velocidad de la banda trasportadora sistema es estable
y sigue a la referencia.
III. Resultados
Del desarrollo del laboratorio virtual se realizó un
sistema SCADA, para el completo desarrollo y visualización
de un sistema de producción real. El sistema SCADA tuvo
como fin monitorear las variables del laboratorio virtual de
manera remota. La interfaz gráfica del sistema SCADA, se
puede ver en la Fig. 9.
Fig. 11. Respuesta de velocidad de la banda trasportadora.
IV. Conclusiones
Fig. 9. SCADA del Laboratorio virtual desarrollado.
El sistema SCADA se integró al sistema híbrido y se
comportó como funcionaría con un sistema SCADA de
supervisión de una planta real, lo cual indica que el acceso a
la memoria del PLC de una manera adecuada, puede permitir
al PLC funcionar normalmente y sin contratiempos.
Por otro lado el sistema se controló en su parte discreta
por los diagramas “ladder” o de escalera, basados en el
lenguaje GRAFCET. La solución fue implementada por
medio del software TIA Portal 12, basada en la máquina de
estados de la figura 2.
El control del sistema se realizó por medio del método de
auto-sintonía que posee el PLC siemens s7-1200, se utilizó
una estructura PID convencional basada en la Fig. 10. la cual
se sintonizó de manera automática utilizando el laboratorio
virtual.
Entre Ciencia e Ingeniería
A través de la interfaz SCADA y el protocolo OPC fue
posible integrar una planta virtual a la PLC para replicar el
comportamiento real de un proceso automatizado, logrando
una aplicación que trae consigo beneficios económicos y de
tiempo en el sector de educación o industrial.
Por otro lado, el uso del laboratorio virtual para el manejo
de plantas en sistemas híbridos da idea de exploración y
desarrollo práctico en la educación actual, utilizando la
tecnología no sólo como fuente de información sino como
entorno experimental, mejorando de esta manera el proceso
de aprendizaje y abriendo más oportunidades a diferentes
formas de aprender.
Es importante tener en cuenta la gran similitud que
presenta este laboratorio con el entorno real, desde el punto
de vista de funcionamiento y dinámicas de los sistemas.
Permitiendo al usuario familiarizarse con los procesos de
automatización antes de interactuar con sistemas físicos.
Agradecimientos
A la vicerrectoría de investigaciones de la Universidad
Militar Nueva Granada, por la financiación del proyecto
INO 1638 del año 2014.
15
Referencias
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9] [10] [11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
Y. Zheng, “Research on Virtual Experiment System on PLC,” in
Advances in Computer Science, Environment, Ecoinformatics, and
Education, IEEE, Ed., Berlin, Springer Berlin Heidelberg, 2011, pp.
552 - 556.
S. Hsieh, Hsieh, P.Y. y Zhang, D, «Web-based simulations and
intelligent tutoring system for programmable logic controller,»
Frontiers in Education, vol. 33, pp. 1-23, 2003.
A. Zafer y Omur, A, «A Web-Based Remote Access Laboratory,»
IEEE Transactions on Education, vol. 52, nº 1, p. 52.126, 2009.
Ferrero, A., Salicone, S., Bonora, C. y Parmigiani, M., « ReMLab:
a Java-based remote, didactic measurement laboratory,» IEEE
Transactions on Instrumentation, vol. 52, pp. 710-715, 2003.
T. J. McConnell, J. M. Parker, J. Eberhardt, M. J. Koehler y M.
A. Lundeberg, «Virtual Professional Learning Communities:
Teachers’ Perceptions of Virtual Versus Face-to-Face Professional
Development,» Journal of Science Education and Technology , vol.
22, nº 3, pp. 267-277, 2013.
L. Lingyun y W. Haijun , «A New Method for Building Web-based
Virtual Laboratory,» de ISITAE ‘07. First IEEE International
Symposium on Information Technologies and Applications in
Education, Kunming, 2007.
U. Suzana y K. Jezernik, «Virtual Laboratory for Creative Control
Design Experiments,» IEEE, vol. 51, nº 1, pp. 69-75, 2008.
E. Salazar y M. Macias, «Virtual 3D controllable machine models for
implementation of automations laboratories,» de FIE ‘09. 39th IEEE
Frontiers in Education Conference, 2009, San Antonio, TX, 2009.
P. Skocik, P. Neumann y Fac. of Appl. Inf., Tomas Bata Univ. in
Zlin, Zlí, «Industrial process in laboratory environment,» de 2013
International Conference on Process Control (PC), Strbske Pleso,
2013.
A. Safavi, A. A. Safavi y P. Veisi, «A Remote and Virtual PLC
Laboratory Via Smartphones,» The 4th International Conference on
e-Learning and e-Teaching ICELET, vol. 4, pp. 63 - 68, 2013.
Y. Zheng, «Research on Virtual Experiment System on PLC
Education Based on Teaching Materials,» de Advances in Computer
Science, Environment, Ecoinformatics, and Education, Springer
Berlin Heidelberg, 2011, pp. 552-556.
E. Besada-Portas y J. A. Lopez-Orozco, «Remote Control Laboratory
Using EJS Applets and TwinCAT Programmable Logic Controllers,»
IEEE TRANSACTIONS ON EDUCATION, vol. 56, nº 2, pp. 156 164 , 2013.
Z. zeng, M. Hu, D. Li y Y. Liu, «Distributed Virtual Laboratory
System Based on Java/Corba,» Circuits, Communications and
System (PACCS), 2011 Third Pacific-Asia Conference on, pp. 1-4,
2011.
W. Guo, Y. Gao y Y. Wang, «Design and Realization of the Interactive
Virtual Laboratory Based on VRML,» Consumer Electronics,
Communications and Networks (CECNet), 2012 2nd International
Conference on, vol. 2, pp. 2510-2513, 2012.
A. Villar-Zafral, S. Zarza-Sanchezl, J. A. Lazaro-Villal y R.
Fernandez-Cantil, «Multiplatform Virtual Laboratory for Engineering
Education,» Remote Engineering and Virtual Instrumentation
(REV), 2012 9th International Conference on, vol. 9, pp. 1-6, 2012.
D. Demeter y J. Banský, «Virtual Laboratory for the e–Learning
Education in the Electronics Technologies,» Electronics Technology
(ISSE), 2012 35th International Spring Seminar on, vol. 35, pp. 476
- 480, 2012.
M. Hincapié, M. d. J. Ramírez, A. Valenzuela y J. A. Valdez,
«Mixing real and virtual components in automated manufacturing,»
International Journal on Interactive Design and Manufacturing
(IJIDeM), vol. 8, 2014.
R. C. Dorf y R. H. Bishop, Modern Control Systems, Pentice Hall,
2011.
Camilo Andrés Cáceres Flórez se
graduó como ingeniero en mecatrónica en
la Universidad Militar Nueva Granada en
Bogotá D.C., Colombia en el 2013. Trabajando
principalmente en las áreas de electrónica,
control, inteligencia artificial y realidad virtual.
Ha trabajado como asistente de
investigación en la Universidad Militar Nueva
Granada desde Enero hasta Junio del 2014. Ha
obtenido como resultado de sus investigaciones
la publicación bibliográfica en ponencias internacionales como; “Multitank fuzzy level controller system using Kinect” en el 2012 y para el 2013
publico “Design and construction of a prototype rehabilitation machine to
hand and wrist”. Actualmente se ha dedico en la investigación sobre las
TIC en Colombia para elaboración de plataformas virtuales para educación
a distancia.
Darío Amaya Hurtado. Se graduó
como Ingeniero Electrónico en la universidad
Antonio Nariño en Bogotá D.C., Colombia en
1995, luego se especializo en Automatización
Industrial en la Universidad de los Andes
en el año 2000, se graduó como magister en
Teleinformática en la Universidad distrital
“Francisco José de Caldas” en el 2007 y
finalizo sus estudio con el doctorado en
Ingeniería Mecánica en la Universidad Estadual de Campinas de Brasil
para el 2011. Trabajando principalmente en las áreas de automatización
industrial, inteligencia artificial, electrónica y sistemas embebidos.
Ha trabajado como docente para el CIM del SENA, Universidad
de San Buenaventura y Universidad Militar Nueva Granada. En el campo
de la investigación ha logrado obtener como resultado la publicación del
libro “Protección Catódica aplicada a Morteros Alternativos” en el 2013
y artículos como “Sistema de control de una planta embebida en FPGA
empleando hardware-in-the-loop”, entre otros. Actualmente se desempeña
como docente de tiempo completo en la Universidad Militar Nueva Granada
e Investigador principal del grupo de investigación GAV, abordando
temáticas en las TIC, energía sostenible, bioingeniería y tele cirugía.
Universidad Católica de Pereira
16
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 16-21
Control óptimo conmutado de un convertidor CC-CC1
Switched optimal control of a DC-DC converter
Controle ótimo comutado de um conversor CC-CC
D. E. Méndez, J. Sánchez y R. Alzate
Recibido Agosto 17 de 2015 – Aceptado Febrero 19 de 2016
Resumen— El presente artículo aborda el control de circuitos
convertidores de potencia empleando control óptimo conmutado. Se
realiza el diseño y la simulación para un convertidor CC-CC tipo reductor
(Buck) y posteriormente se ajusta para el mismo un lazo realimentado
en el cual se verifica el efecto de una acción de tipo proporcional de
alta ganancia (encendido-apagado) a manera de punto de referencia
convencional, para atenuar la incidencia de perturbaciones aplicadas
en el sistema. Posteriormente y empleando un enfoque basado en el
principio del máximo de Pontryagin, se diseña e implementa, a través
de simulación, una técnica de control óptimo conmutado (bang-bang)
que permite obtener un desempeño comparable con la acción encendidoapagado en términos de características dinámicas. Pruebas adicionales
permiten cuantificar la optimalidad de la técnica propuesta y verificar el
desempeño del sistema controlado en términos energéticos, mostrando
que un control óptimo conmutado presenta además de la minimización
del funcional de costo (mínima energía del error), una menor incidencia
en la generación de ruidos por conmutación de alta frecuencia, en
comparación con la técnica convencional. Trabajo adicional incluye
la verificación experimental en laboratorio para los resultados de
simulación presentados.
Palabras clave— control bang-bang, control óptimo conmutado,
convertidor de potencia Buck, principio del máximo de Pontryagin.
Abstract—In this work, switching-based control is applied on
regulation of power conversion circuits. In particular, a DC-DC Bucktype power converter has been designed and simulated, both for
nominal conditions and under disturbances. First of all, a classical OnOff controller was employed to compensate the effects of disturbances
1
Producto derivado del proyecto de grado en la modalidad de
investigación “Análisis de optimalidad para un control conmutado aplicado
en un convertidor de potencia” presentado para optar al título de Ingeniero
Electrónico. Trabajo adscrito al Grupo de Investigación CEMOS, de la
Universidad Industrial de Santander (UIS) en Bucaramanga - Colombia.
D.E. Méndez (diego.[email protected]) y J. SánchezCarvajalino
([email protected])
son
Ingenieros
Electrónicos egresados de la Escuela de Ingenierías Eléctrica, Electrónica
y de Telecomunicaciones (E3T) de la Universidad Industrial de Santander
(UIS) en Bucaramanga – Colombia.
R. Alzate es Profesor Asistente, de Tiempo Completo, en la Escuela
de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones (E3T) de la
Universidad Industrial de Santander (UIS), en Bucaramanga – Colombia;
e-mail: [email protected]
Entre Ciencia e Ingeniería
in the loop, in order to check the correctness of the operational
conditions for the controlled system. Then, an optimal-switching bangbang controlled was designed and implemented, taking into account
the Pontryagin’s Maximum principle, showing a good performance
for disturbance rejection, improvement of dynamical features in the
response and reduction of error’s energy by mean of verification of
optimality criteria. Results show that despite the fact both techniques
analyzed; i.e. On-Off and bang-bang, are switching-based laws, the
performance index on the optimal controller allows to obtain a cleaner
shape with less energy consumption. Ongoing work includes the
experimental verification of the optimal technique in laboratory.
Key words— Bang-bang control, switching-optimal control Buck
power conversion circuit, Pontryagin’s maximum principle.
Resumo – Este artigo descreve os conversores de energia de
controle circuito empregando optivo de controle. Se realiza o projeto
e a estimulação para um convertedor CC-CC tipo redutor (buck) e
posteriormente se ajusta para o mesmo um laço realimentado no qual se
verifica o efeito de uma ação de tipo proporcional de alto ganho (ligadodesligado) o título de referência convencional reduzir a incidência de
distúrbios aplicado sistema. Posteriormente e usando um foco baseado
no principio do máximo de Pontryagin, se projeta e implementa, através
de simulação, uma técnica de ótimo controle comutado (bang-bang)
que permite obter um desempenho comparável com a ação ligadodesligado em términos de características dinâmicas. Testes adicionais
permitem que o Optimalidade da proposta técnica para quantificar e
verificar o desempenho do sistema de energia controlada, mostrando
que um ótimo controle apresenta além da minimização do funcional de
custo (potência mínima do erro), uma menor incidência na geração de
ruídos por comutação de alta frequência, em comparação com a técnica
convencional. Trabalho adicional inclui a verificação experimental em
laboratório para os resultados de simulação apresentados.
Palavras chave: controle Bang-Bang, ótimo controle comutado,
Buck, o conversor de energia de princípio do máximo de Pontryagin .
E
I. Introducción
L consumo energético mundial se ha incrementado
en las últimas décadas como consecuencia de
un acelerado crecimiento en la demanda de recursos, lo
17
que genera fuertes impactos ambientales relacionados
principalmente con emisiones contaminantes por uso de
combustibles fósiles y otras fuentes de energía no renovable.
En la búsqueda por reducir estas consecuencias indeseadas,
se propende por mejorar el desempeño de los sistemas de
gestión de energía, procurando el mayor aprovechamiento
con menores pérdidas [1].
En el caso particular de los sistemas eléctricos, el gestor
de energía se constituye a través de los denominados circuitos
convertidores de potencia, cuya función es suministrar a una
carga eléctrica los niveles de tensión y voltaje adecuados,
transferidos desde una fuente de suministro, mediante la
acción controlada de dispositivos de conmutación [2].
Este control se realiza en la mayoría de casos a través de
la selección adecuada del patrón de una señal de gobierno
modulada en ancho de pulso (PWM, pulse width modulated),
mediante técnicas de control clásico en el dominio de la
frecuencia o moderno en el espacio de estados [3]-[7]. Sin
embargo, si se desea maximizar un índice de desempeño
(como bien puede ser la reducción de pérdidas energéticas),
el control óptimo es la mejor opción [8][9][10].
Una de las técnicas de control óptimo más sencillas es el
controlador de tiempo mínimo o control bang-bang, el cual
es un claro ejemplo de control conmutado, debido al carácter
discontinuo para la ley de control resultante [11]. Dicha
técnica puede considerarse como una versión mejorada del
control encendido-apagado (on-off), desde el punto de vista
energético, dando pie al desarrollo de un nuevo conjunto
de técnicas denominadas de control “híbrido” [12][13][14],
que buscan aprovechar las discontinuidades de campos
vectoriales, para realizar manipulaciones apropiadas del
comportamiento dinámico de sistemas complejos.
La solución de un problema de control óptimo es en
general una tarea poco trivial, pues se deben asegurar
condiciones de existencia y unicidad, además de estabilidad,
para la solución óptima [15]. El problema se complica aún
más cuando la descripción del sistema es condicionada como
en los sistemas híbridos. Al respecto se reportan resultados en
la literatura que buscan definir las condiciones para resolver
problemas de control óptimo en sistemas conmutados [16]
[17][18][19][20]. En cualquiera de ellos, el reto está en
formular adecuadamente la secuencia de conmutación que
minimiza el funcional de costo, garantizando la convergencia
de la solución. En este contexto el controlador bang-bang
sólo requiere una conmutación por periodo, facilitando
su resolución mediante aproximaciones numéricas (i.e.
programación dinámica).
La mayor contribución del presente artículo es por tanto,
la aplicación del control bang-bang como control óptimo
conmutado para regular el comportamiento de un circuito
convertidor de potencia. Para ello se abordan los siguientes
contenidos: la sección II describe los fundamentos del
control óptimo y el control bang-bang; la sección III
presenta los resultados de simulación comparativos para el
control bang-bang y un control conmutado convencional de
tipo encendido-apagado aplicados en un convertidor CCCC reductor. Finalmente, se presenta en la sección IV la
conclusión general del trabajo.
II. Metodología y Materiales
El problema de control óptimo puede resumirse en
resolver la optimalidad de un funcional J que depende de
un cierto conjunto de funciones u(t) correspondientes con
el esfuerzo de una acción de control [15]. En otras palabras,
siendo un sistema dinámico descrito por la ecuación de
estados:
x = f(x,u,t) ,
(1)
donde x representa los estados del sistema y u es el vector
de entradas o forzantes, es posible plantear un problema
de optimización (con o sin restricciones) consistente en
minimizar o maximizar el siguiente funcional de costo o
índice de desempeño:
(2)
donde y(.) es una condición terminal sobre el estado y L
se denomina el lagrangiano del sistema.
Para garantizar la optimalidad de (2); es decir, para
garantizar la existencia de una solución para el problema
de control óptimo, se deben satisfacer las condiciones del
denominado principio del máximo de Pontryagin, enunciado
en el modo siguiente [15]:
Teorema (Principio del Máximo)
Suponga que Suponga que u(t) y x(t) representan
y representan respectivamente el control óptimo y la
trayectoria de estado para un problema de control óptimo.
Entonces, existe una trayectoria adjunta l(t)tal que, junto
con u(t), x(t) y l(t) y satisfacen:
(Ecuación del sistema)
(Condiciones iniciales)
(Ecuación adjunta)
para todo 0 ≤ t ≤ T , y todo v € U , tal que:
donde H es el hamiltoniano dado por:
A. Control conmutado de mínimo tiempo (bang-bang)
Como caso de aplicación para el principio del máximo,
se presenta el problema de control del tiempo mínimo,
en el cual se propone un problema de optimización con
restricciones, donde:
Universidad Católica de Pereira
18
siendo:
sometido a -1 ≤ u(t) ≤ 1 y condiciones finales deseadas
nulas para el vector de estados (i.e. y(x(tf)) = 0), partiendo de
condiciones iniciales arbitrarias. De esta manera, es evidente
la forma que toma el lagrangiano del sistema:
L (x,u) = 1
a partir del cual es posible formular el hamiltoniano
correspondiente:
que para el caso de un sistema lineal:
para x1(t) representando la corriente en el inductor, x2(t) la
tensión en el capacitor y u(t) el valor de ciclo útil de la señal de
conmutación modulada en ancho de pulso.
Ahora bien, resolver el problema de control de tiempo
mínimo para este sistema es equivalente a reducir a cero el
error del vector de estado, con respecto a valores de estado
estacionario deseados. De esta manera, puede formularse el
siguiente funcional de costo:
(5)
resulta, por el principio del máximo, en una solución
óptima del tipo [21]:
(3)
donde sign(.) es la función signo y l(t) la solución de la
ecuación adjunta correspondiente.
B. Control bang-bang de un convertidor Buck
La Fig. 1, ilustra el diagrama esquemático de un circuito
convertidor de potencia CC-CC tipo reductor (Buck). Dicho
circuito fue diseñado para satisfacer las características
nominales incluidas en los parámetros de la Tabla 1.
El modelo del circuito en el espacio de estados, puede
escribirse como:
(4)
Fig. 1. Circuito convertidor de potencia Buck.
para regular la tensión de salida en el convertidor (siendo x2d
= 12V ), con restricciones sobre la señal de control dadas por:
0 ≤ u(t) ≤ 1
considerando un ciclo útil porcentual. Luego, dada la
dificultad para resolver analíticamente la ecuación adjunta
correspondiente, se procede a aproximar una solución numérica
para la señal de control óptimo empleando el paquete de
herramientas de optimización de MATLAB®. En particular,
se configuró un problema de optimización no lineal con
restricciones a partir de la función fmincon(.) tomando como
base la descomposición en intervalos sugerida en [22]. Para
ilustración, el procedimiento numérico ejecutado se describe en
el Apéndice al final del artículo.
III. Resultados y discusión
Inicialmente, la Fig. 2 muestra la simulación en
MATLAB® para la tensión de salida del circuito en lazo
abierto sin control, cuando se aplica una perturbación
en la entrada de suministro Vm in correspondiente con un
decremento del 25 % en su valor nominal, pasando de
24 V a 18 V en t = 25 ms. Como se observa, posterior a
la perturbación el sistema no mantiene la tensión nominal
deseada a la salida, cayendo a 8.8 V. Este comportamiento
justifica la inclusión de un controlador que permita regular
los niveles de tensión de salida hacia valores nominales
deseados, a pesar de la influencia de perturbaciones.
Tabla I
Valores de diseño para circuito convertidor de potencia.
inclusión
Fig. 2. Tensión en lazo abierto con perturbación.
Entre Ciencia e Ingeniería
19
La primera estrategia de control verificada corresponde a
un control proporcional de alta ganancia (control encendidoapagado), con resultados para la tensión de salida regulada
y señal de control, ilustrados respectivamente en las Figs. 3
y 4.
A partir de ello, se experimenta una notable disminución
en el efecto de la perturbación, debido al incremento de
energía en la señal de control. Sin embargo, también se
denota mayor presencia de micro-oscilaciones en la respuesta
(chattering), apreciados de manera más visible en la señal de
control, la cual conmuta alrededor de sus valores extremos
(constituyendo por tanto una acción de control conmutado).
Fig. 3. Tensión de salida bajo acción encendido-apagado.
manera notoria el sobreimpulso inicial, aunque también se
presenta un transitorio levemente más prolongado, incluso
al momento de aplicarse la perturbación en la carga. En
términos de la señal de control, se observa cómo el valor
del ciclo útil tiende a establecerse alrededor del valor
nominal (50 %) antes de aplicarse la perturbación en t =
0.025 s, momento en el cual se posiciona en un valor mayor
para efectos de compensación. Desde el punto de vista del
desgaste de elementos de actuación y generación de ruidos
de alta frecuencia, este comportamiento es deseable en
comparación con el tipo de señal del controlador encendidoapagado.
Fig. 6. Señal de control bang-bang.
Adicionalmente, la Fig. 7 permite comparar el
desempeño para ambas estrategias de control desde el punto
de vista energético, donde se comprueba cómo a partir del
cálculo del funcional de costo considerado en (5), la energía
del error se minimiza para la estrategia óptima y por tanto,
se puede verificar que una estrategia de control se puede
valorar, no solamente desde el punto de vista del valor de
las variables de interés en estado estacionario, sino también
a partir del cómo puede obtenerse el objetivo de control
empleando un menor esfuerzo (o equivalentemente con una
mínima energía).
Fig. 4. Señal de control encendido-apagado.
Posteriormente, se presentan en las Figs. 5 y 6 resultados
equivalentes para el caso del control óptimo conmutado de
tipo bang-bang.
Fig. 7. Tensión en lazo abierto con perturbación.
IV. Conclusiones
Fig. 5. Tensión de salida bajo acción bang-bang.
Para este caso, se eliminan las micro-oscilaciones
(chattering) de la respuesta del sistema y se reduce de
El control conmutado se incluye dentro del conjunto
de técnicas de control híbrido que combinan descripciones
continuas con transiciones (discontinuidades) generalmente
de tipo discreto. Un control proporcional de alta ganancia
(en su forma de control encendido-apagado) puede verse
como una forma de control conmutado debido al carácter
Universidad Católica de Pereira
20
discontinuo de la señal resultante. El efecto de este tipo de
control es una mayor fuerza aplicada en el actuador, lo cual
eventualmente puede presentar micro-oscilaciones de alta
frecuencia (chattering) con efectos nocivos correspondientes.
El control bang-bang es una clase particular de control
conmutado que puede derivarse mediante el problema
de optimización del mínimo tiempo. El presente artículo
permitió mostrar cómo una estrategia de control bangbang, partiendo del mismo principio de conmutar entre dos
valores admisibles, concentra en un modo más eficiente
la energía de la señal de control, haciendo que se obtenga
el resultado deseado a la salida con un menor consumo
reflejado en la minimización del funcional de costo. Se
empleó como ejemplo el problema de regular la tensión
de salida en un circuito convertidor de potencia ante la
acción de perturbaciones en su entrada. Trabajos adicionales
implican la verificación experimental en laboratorio para los
resultados presentados y la exploración de aplicaciones a
mayor escala de potencia.
final en condición de reposo) a manera de restricción de
igualdad no lineal; es decir:
.
Nótese cómo la restricción en el valor final se realiza
sobre el vector de estados original x, y no en su versión
ampliada z, debido a que en este último la dirección
adicional corresponde con el funcional de costo a optimizar.
Asimismo, para este problema particular, no se emplean (y
por tanto no se definen) funciones de restricción no lineal de
desigualdad c(u), ni restricciones lineales dadas por {A, Aeq,
b, beq}. Sin embargo, es requerido que lb = -1 y ub = 1; es
decir: -1 ≤ u ≤ 1
De esta manera, el diagrama de flujo de señal ilustrado
en la Fig. 8 presenta el desarrollo lógico del algoritmo
que permite encontrar el valor de la señal de control u que
minimiza el índice de desempeño J(u) .
Apéndice: Solución numérica del problema de optimización
La función fmincon (.) de MATLAB® forma parte del
paquete de herramientas de optimización (Optimization
toolbox [23]). Dicha función, resuelve un problema
formulado de la siguiente manera:
siendo J(u) la función objetivo a minimizar, u el parámetro de
optimalidad, c(u) las restricciones no lineales de desigualdad,
ceq(u) las restricciones no lineales de igualdad, {A, Aeq, b,
beq}los parámetros para las restricciones lineales de igualdad
y desigualdad, mientras que {lb, ub} son respectivamente las
cotas inferior y superior para u .
Por ser un problema de optimización para hallar el tiempo
mínimo, se plantea J(u)=t. Ahora bien, numéricamente la
información para este funcional en términos del vector de
estados del sistema implica adicionar una tercera variable
dinámica x3(t) = t, para forzar a que la minimización de J(u)
corresponda con la minimización de esta tercera variable de
estado. Así entonces, el nuevo vector de estados se representa
mediante:
con lo cual, la dinámica del sistema ampliado se convierte
en:
Luego, tomando en consideración las características del
problema, se incorpora la condición final deseada (estado
Entre Ciencia e Ingeniería
Fig. 8. Diagrama de flujo de datos para función fmincon de MATLAB®.
21
Referencias
[1] I. E. Agency, “Key world energy statistics 2014,” 2014.
[2] D. W. Hart, Electrónica de Potencia. Pearson Educación, SA, 2001.
[3] J. G. Kassakian, M. F. Schlecht, and G. C. Verghese, Principles of
power electronics. Addison-Wesley Reading, USA, 1991.
[4] R. W. Erickson and D. Maksimovic, Fundamentals of power
electronics. Springer, 2001.
[5] V. Utkin, J. Guldner, and M. Shijun, Sliding mode control in
electromechanical systems. CRC press, 1999, vol. 34.
[6] H. Sira-Ramírez and R. Silva-Ortigoza, Control design techniques in
power electronics devices. Springer, 2006.
[7] C. Elmas, O. Deperlioglu, and H. H. Sayan, “Adaptive fuzzy logic
controller for dc–dc converters,” Expert Systems with Applications,
vol. 36, no. 2, pp. 1540–1548, 2009.
[8] R. Sepulchre, M. Jankovic, and P. V. Kokotovic, Constructive
nonlinear control. Springer-Verlag, Berlin., 1997.
[9] M. Pahlevaninezhad, P. Das, J. Drobnik, G. Moschopoulos, P. K. Jain,
and A. Bakhshai, “A nonlinear optimal control approach based on
the control-lyapunov function for an ac/dc converter used in electric
vehicles,” Industrial Informatics, IEEE Transactions on, vol. 8, no. 3,
pp. 596–614, 2012.
[10] X. Liu, G. Zhang, D. Yang, T. Shi, and X. He, “Discrete-time optimal
control of photovoltaic grid-connected inverter based on particle
swarm optimization,” Mathematical Problems in Engineering, 2014.
[11] di Bernardo, M., Budd, C., Champneys, A.R., and Kowalczyk, P.
Piecewise-smooth dynamical systems: theory and applications.
London: Springer-Verlag, 2008.
[12] Goebel, R., Sanfelice, R. G. and Teel, A. R. Hybrid dynamical systems.
IEEE Control Systems Magazine, vol.29 (2), pp. 28-93, 2009.
[13] Rubaai, A. and Jerry, J. Hybrid fuzzy bang-bang mode controller with
switching function for electric motor drives applications. Industry
Applications IEEE Transactions on, vol. 50 (3), pp. 2269-2276, 2014.
[14] N. Aghasadeghi, A. Long, and T. Bretl, “Inverse optimal control for a
hybrid dynamical system with impacts,” in Robotics and Automation
(ICRA), 2012 IEEE International Conference on. IEEE, 2012, pp.
4962–4967.
[15] R.W.H. Sargent, Optimal control, Journal of Computational and
Applied Mathematics, Volume 124, Issues 1–2, pp. 361-371. 2000.
[16] Xuping Xu; Antsaklis, P.J., “Optimal control of switched systems
based on parameterization of the switching instants,” in Automatic
Control, IEEE Transactions on , vol.49, no.1, pp.2-16, Jan. 2004.
[17] Shahid Shaikh, M.; Caines, P.E., “On the Hybrid Optimal Control
Problem: Theory and Algorithms,” in Automatic Control, IEEE
Transactions on , vol.52, no.9, pp.1587-1603, Sept. 2007.
[18] Jian Xu; Qijun Chen, “Optimal control of switched hybrid systems,”
in Control Conference (ASCC), 2011 8th Asian , vol., no., pp.12161220, 15-18 May 2011.
[19] Sorin C. Bengea, Raymond A. DeCarlo, Optimal control of switching
systems, Automatica, Volume 41, Issue 1, January 2005, Pages 11-27.
[20] Ghomanjani, F.; Farahi, M. H., “Optimal Control of Switched
Systems based on Bezier Control Points,” in I. J. Intelligent Systems
and Applications , vol.4, no.7, pp.16-22, Jun. 2012.
[21] Lucas, S.K.; Kaya, C.Y., “Switching-time computation for bang-bang
control laws,” American Control Conference, 2001. Proceedings of
the 2001 , vol.1, no., pp.176,181 vol.1, 2001.
[22] X. Wang. Solving optimal control problems with MATLAB: Indirect
methods. Technical report, ISE Dept., NCSU, 2009.
[23] Optimization Toolbox™ User’s Guide, The MathWorks, Inc., 2015.
Ricardo Alzate Castaño (M’09). Nació en Palmira, Colombia, el 06
de marzo de 1979. Obtuvo el Título de Ingeniero Electrónico en 2003, y
de Magister en Automatización Industrial en 2006, ambos otorgados por la
Universidad Nacional de Colombia – Sede Manizales. En 2009 obtuvo el
título de Doctor en Automatización por parte de la Universidad de Nápoles
FEDERICO II en Italia. Desde 2010 está vinculado como Profesor de
Tiempo Completo en la Escuela de Ingenierías Eléctrica Electrónica y de
Telecomunicaciones (E3T) de la Universidad Industrial de Santander (UIS),
en Bucaramanga – Colombia. Sus intereses de investigación incluyen el
análisis de sistemas dinámicos no lineales y la síntesis de estrategias
avanzadas de control para sistemas de gestión de energía.
Diego Alfonso Esteban Méndez. Nació en Bucaramanga, Colombia,
el 23 de marzo de 1990. Culminó sus estudios de Ingeniería Electrónica
en la Universidad Industrial de Santander en 2015. Sus intereses de
investigación se orientan hacia el análisis de optimalidad en sistemas de
gestión de energía.
Jaffraith Sánchez Carvajalino. Nació en Ocaña, Colombia, el 16
de marzo de 1988. Culminó sus estudios de Ingeniería Electrónica en la
Universidad Industrial de Santander en 2015. Sus intereses de investigación
se orientan hacia el desarrollo de algoritmos para el cálculo variacional de
la dinámica de sistemas eléctricos.
Universidad Católica de Pereira
22
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 22-32
Determinación de la concentración de cadmio en un chocolate
colombiano con 65% de cacao y chocolates extranjeros con
diferentes porcentajes de cacao1
Determination of the concentration of cadmium in a Colombian
chocolate with 65% of cocoa, and foreign chocolates with different
cocoa percentages
Determinação da concentração de cádmio num chocolate
colombiano com 65% de cacau e chocolates estrangeiros com
diferentes porcentagens de cacau
A. Echeverry y H. Reyes
Recibido Agosto 25 de 2015 – Aceptado Febrero 19 de 2016
Resumen — se evaluó de forma cualitativa y cuantitativa
la presencia de cadmio en un chocolate amargo con 65% de
cacao producido en Colombia y en chocolates extranjeros con
diferentes porcentajes de cacao. Para la preparación de las
muestras se tomaron 0,5 gramos y se realizó una digestión ácida
con ácido nítrico concentrado (HNO3 65%). La determinación
del metal se llevó a cabo por medio de la técnica de
espectrofotometría de absorción atómica de llama (FAAS). Se
determinó el límite de detección (LOD) y cuantificación (LOQ)
del método, obteniéndose valores de 0,0309 mg/L y 0,0670 mg/L
respectivamente. La concentración promedio de cadmio en el
chocolate nacional fue de 4,0477 mg/kg, superando los límites
establecidos por el Codex Alimentarius (2,0 mg/kg) y la Unión
Europea (0,8 mg/kg).
Abstract — the presence of cadmium was evaluated
qualitatively and quantitatively in a dark chocolate with
65% cocoa produced in Colombia, and foreign chocolates
with different percentages of cocoa. 0.5 grams were taken for
the preparation of the samples, and an acid digestion with
concentrated nitric acid (HNO3 65%) was performed. The
metal determination was carried out by the Flame Atomic
Absorption Spectrophotometry Technique (FAAS). The
detection limit (LOD) and the quantification (LOQ) of the
method was determined, obtaining values of 0.0309 mg/L
and 0.0670 mg/L respectively. The average concentration of
cadmium in the national chocolate was 4.0477 mg/kg, exceeding
the limits established by the Codex Alimentarius (2,0 mg/kg)
and the European Union (0,8 mg/kg).
Palabras
clave
—
cadmio,
chocolate
amargo,
espectrofotometría de absorción atómica, límite de detección,
límite de cuantificación.
Key words — cadmium, dark chocolate, atomic absorption
spectrophotometry, detection limit, quantification limit.
1
Producto derivado del proyecto de investigación “Determinación
cuantitativa y análisis de cadmio presente en chocolates colombianos
con alto contenido de cacao”. Presentado por el Grupo de Investigación
Grupo Químico de Investigación y Desarrollo Ambiental - QUIDEA, de la
Universidad del Quindío.
H. Reyes docencia en el programa de Ingeniería de Alimentos, de la
Universidad del Quindío, Armenia (Colombia); email: [email protected]
edu.co.
A. Echeverry docencia en el programa de Ingeniería de Alimentos, de
la Universidad del Quindío, Armenia (Colombia); email: [email protected]
uniquindio.edu.co.
Entre Ciencia e Ingeniería
Resumo – Se avaliou de forma qualitativa e quantitativa
a presença de cádmio em um chocolate amargo com 65% de
cacau produzido na Colômbia e em chocolates estrangeiros
com diferentes porcentagens de cacau. Para a preparação
das amostras foram tomadas 0,5 gramas y se realizou uma
digestão acida com acido nítrico concentrado (HNO₃ 65%).
A determinação do metal foi efetuada por meio da técnica de
espectrofotometria de absorção atômica de chama (FAAS). Se
determinou o limite de detecção (LOD) y quantificação (LOQ)
do método, obtendo valores de 0,0309 mg/L e 0,0670 mg/L
respectivamente. A concentração media de cadmio no chocolate
nacional foi de 4,0477 mg/kg, superando os limites estabelecidos
por o Codex Alimentarius (2,0 mg/kg) e a União Europeia (0,8
mg/kg).
23
Palavras
chaves:
cádmio,
chocolate
amargo,
espectrofotometria de absorção atômica, limite de quantificação.
C
I. Introducción
hocolate es el producto homogéneo de materias de
cacao, productos lácteos, azúcares y/o edulcorantes
y otros aditivos alimentarios permitidos por la legislación.
Al referirse a chocolate amargo, semidulce, oscuro, entre
otros; este debe contener mínimo 35% de extracto seco
total de cacao [1]. Las semillas de cacao proceden del árbol
nombrado científicamente Theobrama cacao L., las cuales
tienen su significado griego como “alimento de los dioses”;
es por ello que el chocolate ha sido conocido a través de la
historia como un alimento exquisito al paladar humano [2].
La denominación preferente con la que se reconoce
este producto alimenticio ha sido consecuencia no sólo de
su inigualable sabor, sino también debido a sus múltiples
beneficios para la salud de quienes lo consumen [3]. Entre
sus principales ventajas se encuentra la alta fuente de
antioxidantes [4], [5]. Los compuestos químicos presentes
en el chocolate son las catequinas, epicatequinas y
procianidinas hacen parte del grupo de los flavanoles [6], [7].
Es debido a estas estructuras fitoquímicas que el chocolate
es un excelente aliado en la prevención de enfermedades
cardiovasculares, principal causa de mortalidad en los países
occidentales [6]. La manera cómo actúan en el organismo es
limitando la inflamación de las vías sanguíneas, mejorando
la dilatación vascular y la presión sanguínea y atenuando la
actividad de las plaquetas, entre otros [8].
Además se ha demostrado que el chocolate tiene un
balance benéfico del perfil lipídico [5]. Anteriormente este
producto era visto como un alimento de un valor nutricional
mínimo y muy poco saludable, debido a la cantidad de grasa
saturada presente por naturaleza en el mismo conocida como
manteca de cacao. Sin embargo, de manera particular se
ha encontrado que el ácido esteárico (ácido graso saturado
presente en la manteca de cacao en mayor proporción – 35%)
tiene un comportamiento inusual, ya que no se comporta
como saturado sino como insaturado, teniendo un efecto
neutral en los niveles de colesterol de la sangre [9].
Por otro lado, se ha encontrado recientemente que
los compuestos antioxidantes presentes en el chocolate,
especialmente la epicatequina, no solo juegan un
papel importante en la precaución de enfermedades
cardiovasculares, sino que además tienen una acción
neuroprotectora y neuromodulatoria en los humanos. Es
decir, la primera acción se encuentra asociada a la prevención
y disminución de enfermedades neurológicas, cognitivas
y disminución funcional del cerebro como el alzheimer,
parkinson y demencia senil. Y la segunda se relaciona con
las habilidades de cognición, humor, aprendizaje y memoria
[10].
Todo lo anteriormente mencionado ha hecho que el
consumo del chocolate tenga una tendencia al aumento,
según la Organización Internacional de Cacao (International
Cocoa Organization - ICCO), en el periodo 2013-2014,
siendo los países dominantes pertenecientes a Europa
Occidental y Norte América [11].
La misma organización enfatiza que este crecimiento,
aunque lento, se debe específicamente al cambio en el gusto
de los consumidores. Pues los amantes del chocolate están
exigiendo productos con mayor contenido de cacao, debido
a que cada día se es más consciente de tener hábitos de vida
saludables y por ende consumir alimentos que aporten a esta
iniciativa, como lo es el chocolate por su alto contenido de
antioxidantes [12]. Es por ello que la industria chocolatera
responde de forma proactiva a esta preferencia produciendo
cada vez más productos con alto contenido de cacao
conocidos como chocolate oscuro, amargo o premium [11].
No obstante, los beneficios y atributos del chocolate
pueden verse afectados por la presencia de trazas de
metales pesados [13], [14]. El cadmio, considerado como
contaminante alimentario [15], es un metal pesado tóxico
ampliamente usado a nivel industrial en la producción
de pintura, plástico, textil, vidrio, entre otros [16], lo que
conlleva a que el metal se acumule progresivamente en el
ambiente y se transporte fácilmente por medio del aire y del
agua, llegando así a los suelos de los cultivos agrícolas y
por ende a la cadena alimenticia [17], [18]. Otro factor que
influye en la concentración de cadmio en las plantas es el uso
de fertilizantes fosfatados [19], [20].
Las principales consecuencias toxicologías del
cadmio en el organismo son las enfermedades renales,
pulmonares, digestivas, óseas y cancerígenas [21], [22],
[23]. Es por ello que el objetivo del presente estudio fue
determinar la concentración de cadmio en un chocolate
colombiano con 65% de cacao y chocolates extranjeros con
diferentes porcentajes de cacao, por medio de la técnica de
espectrofotometría de absorción atómica de llama (FAAS).
II. Materiales y Métodos
A. Recolección de muestras
Como criterio de selección de las muestras se estableció
que fueran chocolates de consumo directo y con alto
porcentaje de cacao. Para tal fin se obtuvieron dos tipos
de chocolates. Una marca comercial nacional y otras
extranjeras. El chocolate producido en el país es amargo
tipo exportación con 65% de cacao de 70 gramos. Se
seleccionaron 5 lotes diferentes los cuales se recolectaron en
las ciudades de Bogotá, Medellín, Cali y Armenia. Para un
total de 14 muestras que se analizaron por triplicado.
Los chocolates extranjeros se obtuvieron de algunos
países de Europa y con diferentes porcentajes de cacao como
se muestra en la tabla I.
Universidad Católica de Pereira
24
Tabla I
Chocolates Extranjeros
PAÍS
% CACAO
PESO NETO (g)
España
55
150
España
70
80
Francia
47
200
Francia
72
100
Francia
80
100
Suiza
49
100
Ghana
70
125
Para un total de 7 chocolates extranjeros los cuales se
analizaron por triplicado.
B. Preparación de muestras
Para iniciar la preparación de las muestras se realizó una
molienda y homogenización de las mismas con un molino
manual, con el fin de evitar que el chocolate se derritiera,
luego se almacenaron en un desecador por 72 horas con
el objeto de equilibrar la humedad. Pasadas las 72 horas se
pesaron 0,5 gramos de cada una en unos vasos digestores
previamente lavados con ácido nítrico 65% (HNO3).
Posteriormente se adicionaron 7ml HNO3 65% marca
MERCK para comenzar la digestión ácida, la cual además
de realizar una descomposición de la materia orgánica forma
una sal soluble del metal. Esta digestión se llevó a cabo en un
horno digestor por microondas, usando el método de trampa
de temperatura, donde la máxima temperatura alcanzada fue
de 180°C y un tiempo de 35 minutos. Después de realizada
la descomposición se adicionaron 2ml de peróxido de
hidrogeno (H2O2) marca MERCK a cada muestra, con el fin
de eliminar el color marrón resultante de la descomposición
y así volverlas traslucidas, para luego ser aforadas con agua
desionizada de un sistema Merck Millipore hasta 25ml [24].
Finalmente se realizó la determinación de cadmio por
medio de la técnica de espectrofotometría de absorción
atómica por llama. En total se analizaron 63 muestras
incluyendo los triplicados.
chocolate se realizó en un equipo espectrofotómetro de
absorción atómica marca SHIMADZU. Modelo AA-7000.
Las condiciones del método fueron: Longitud de onda:
228,8 nm, ancho de banda: 0,7 nm, flujo de gas: 1,8 L/min,
altura de la celda: 10,5 mm, tipo de llama: aire - acetileno.
Se tomó un estándar de Cadmio de 1000 ppm con el fin
de elaborar una curva de calibración de 9 puntos con las
siguientes concentraciones: blanco – 0,1 – 0,2 – 0,3 – 0,4
– 0,5 – 0,6 – 0,7 – 0,8 mg/L. Con esta se determinaron los
límites de detección (LOD), cuantificación (LOQ) [25] y la
concentración del metal.
III. Resultados y Discusiones
A. Límite de detección y cuantificación
Para establecer los límites de detección (LOD) y
cuantificación (LOQ) se realizaron lecturas seguidas del
blanco como se muestra en la Tabla III, empleando agua
desionizada y la curva de calibración (Fig. 1).
Tabla III
Lecturas Del Blanco Para La Determinación Del Lod Y Loq
BLANCO
ABSORBANCIA
1
0,0012
2
0,0007
3
0,0002
4
0,0008
5
0,0022
6
0,0033
7
0,0014
8
0,0011
9
0,0005
10
0,0009
C. Instrumentación
Para la digestión ácida se usó un horno digestor
microondas marca CEM. Modelo MARS Xpress. Se
trabajó con 24 vasos digestores y un método de trampa de
temperatura que se muestra en la tabla II.
Tabla ii.
Método de trampa de temperatura usado en el equipo digestor por
microondas
La determinación de cadmio en las muestras de
Entre Ciencia e Ingeniería
Fig 1. Curva de calibración de cadmio para la determinación en chocolates.
El límite de detección se calculó multiplicando 3 veces
la desviación estándar de las absorbancias del blanco (σ),
luego con los valores de la ecuación de la curva se estableció
la concentración límite correspondiente al LOD. Para el
límite de cuantificación se realizó el mismo procedimiento
simplemente multiplicando por 10 la desviación estándar,
25
luego con la ecuación de la recta se determinaron las
concentraciones para cada uno de los limites, como se
muestra en las ecuaciones de la (1) – (5) [25]. Los resultados
se muestran en la tabla IV.
(1)
(2)
donde σ es la desviación estándar de las lecturas del
blanco
y = mx + b
(3)
donde y es la señal analítica, es decir la absorbancia, m
es la pendiente de la curva, x la concentración de cadmio en
mg/L y b el intersecto de la curva
(4)
(5)
Tabla IV
Resultados Límite de Detección y Cuantificación
Desviación Estándar
0,0009
LOD
0,0027
LOQ
0,0091
M
0,1759
B
-0,0027
Concentración LOD
0,0309 mg/L
Concentración LOQ
0,0670 mg/L
El límite de detección indica la concentración a la cual se
puede afirmar que hay presencia del metal en los chocolates
analizados. Por su parte el límite de cuantificación es el valor
en el cual se pueden realizar análisis cuantitativos, es decir, si
las concentraciones obtenidas en el equipo superan el LOD
y el LOQ se puede garantizar la confiabilidad del método.
Sin embargo si la concentración de cadmio da por debajo
del LOD se dice que es no detectable (ND), y si da en medio
de los dos se afirma que es detectable, mas no cuantificable
(NQ) [26].
B. Determinación de cadmio en los chocolates nacionales
y extranjeros
Los resultados obtenidos, de la concentración de cadmio
en los chocolates nacionales y extranjeros, se muestran en las
tablas V y IV respectivamente. En cuanto a la nomenclatura
de los chocolates nacionales la letra L indica el número de
lotes (L1, L2, L3, L4, L5) las letras de la A a la D indican
el número de chocolates por cada lote y los números que
acompañan las letras indican los triplicados (A1, A2, A3).
Así por ejemplo el nombre L1A1 corresponde al primer
triplicado del primer chocolate del primer lote. Por su
parte, en los chocolates extranjeros (tabla IV) el nombre
simplemente muestra el país de origen y el porcentaje de
cacao, por ejemplo, ESP1 55%, se refiere al primer triplicado
del chocolate de España con 55% de cacao.
Para entender los resultados de las tablas V y VI es
importante aclarar que la primera concentración (columna
4), es la que determina el equipo automáticamente por
medio de la ley de Beer-Lamber, con la curva de calibración
y los valores de absorbancia. Esta concentración es la que
deben superar los límites de detección y cuantificación para
verificar la confiabilidad del método. Como se puede notar
en la tabla V para el chocolate nacional todas las muestras
superaron el LOQ (0,0670 mg/L) excepto la L5A2, sin
embargo el valor estuvo muy cercano (0,0641 mg/L) y los
triplicados de esa muestra arrojaron valores positivos. Este
resultado es muy positivo, ya que da la certeza de que estos
valores son confiables para realizar análisis cuantitativos
de la cantidad de cadmio presente en los chocolates. No
obstante, en cuanto a los chocolates extranjeros (tabla VI),
se puede ver que aunque todos superaron el LOD (0,0309
mg/L) excepto FRC3 72%, ninguno superó LOQ. Esto
quiere decir que se puede afirmar con certeza la presencia de
cadmio en este tipo de chocolates, más no es posible realizar
análisis cuantitativos.
Por otro lado, el porcentaje de variabilidad (RSD)
mostrado en la columna 6 indica, como su nombre lo dice,
la variabilidad de los valores de absorbancia (señal analítica)
de las muestras con respecto al ruido de fondo del método,
dado que el equipo realiza un triplicado por cada lectura
y luego promedia los valores de las tres mediciones. Para
los chocolates nacionales el valor de RSD más alto fue de
13,80% y el más bajo de 0,00%, siendo este un porcentaje
pequeño y da entender que la señal analítica está alejada
del ruido de fondo, lo que se confirma nuevamente con los
resultados obtenidos por encima del límite de detección y
cuantificación. No obstante, para los chocolates extranjeros
el porcentaje RSD fue muy alto, llegando a valores hasta
de 115, 71% esto debido a la baja concentración de cadmio
en este tipo de chocolates, lo que impidió que la señal
analítica se alejara del ruido de fondo y por tal motivo se
obtuvo una alta variabilidad. Este resultado se confirma con
el hecho que ningún chocolate extranjero superó el límite de
cuantificación.
Finalmente, para determinar la concentración real
(columna 7) se realizó la conversión teniendo en cuenta
el peso de la muestra (0,5 g) y el volumen al cual se aforó
después de la digestión, el cual fue de 25ml, como se muestra
en la ecuación (6).
(6)
Como ejemplo para la muestra L1A1 se calculó de la
siguiente manera:
Universidad Católica de Pereira
26
Tabla V.
Resultados Concentración De Cadmio En Chocolate Colombiano Con 65% De Cacao
Entre Ciencia e Ingeniería
27
Tabla VI.
Resultados Concentración de Cadmio en Chocolates Extranjeros
Para las muestras de chocolate colombiano el promedio
de la concentración real de cadmio fue de 4,0477 mg de
cadmio / kg de chocolate. Siendo este resultado un valor
muy alto ya que sobrepasa los límites máximos establecidos
por el Codex Alimentarius y la Unión Europea los cuales
son de 2 mg/kg y 0,8 mg/kg respectivamente, para
chocolates con más del 50% de cacao [27], [28], como
es el caso del chocolate nacional analizado (65%). Estos
resultados deben poner en alerta a la industria chocolatera,
debido a la alta toxicidad del metal [29].
Por su parte, para los chocolates extranjeros el promedio
de la concentración de cadmio fue de 2,3962 mg de cadmio
/ kg de chocolate, a pesar que este valor supera los límites
establecidos por las legislación nombradas, no se puede
afirmar con certeza la veracidad de este resultado ya que se
analizaron chocolates con diferentes porcentajes de cacao,
lo que hace que sean resultados diferentes, debido a que el
cadmio procede de los granos de cacao y no de los demás
ingredientes adicionados al chocolate [13], [30].
C. Diseño experimental de chocolate colombiano
Los resultados obtenidos para el chocolate colombiano
se sometieron a un análisis estadístico con el fin de
establecer si había una diferencia significativa en cuanto
a la concentración de cadmio en los diferentes lotes. La
comparación se hizo mediante la técnica ANOVA por medio
del programa estadístico PASW Statistics 18.
Se planteó la hipótesis nula y la hipótesis alterna que se
muestran a continuación con un nivel de significancia de
α=0,05.
Ho: µ0 = µK (la concentración de cadmio de todos los
lotes de chocolate es igual)
Hi: µ0 ≠ µi (al menos una de las concentraciones de
cadmio de un lote es diferente)
1) Análisis univariable – ANOVA
En la tabla VII se muestra el número de chocolates
analizados por cada lote con la media y desviación estándar
de la concentración de cadmio. Estas mismas medias fueron
graficadas en la Fig. 2. La interpretación es que los lotes
son estadísticamente iguales, ya que el valor p arrojado
fue de 0,152, siendo mayor que el nivel de significancia
elegido (α=0,05), como se muestra en la tabla VIII. Esto
quiere decir que no hay diferencias significativas entre las
concentraciones de cadmio en los diferentes lotes, lo que se
confirma con los diagramas de dispersión y de caja y bigotes
representados en las Fig. 3 y 4, debido a que presentan una
distribución normal de los datos.
Universidad Católica de Pereira
28
Tabla VII
Estadísticos Descriptivos de La Concentración de Cadmio
en Cada Lote
Tabla VIII
Pruebas De Los Efectos Inter-Sujetos
Fig. 4. Gráfico caja y bigotes de la concentración de cadmio en los lotes de
chocolate.
Fig. 2. Gráfico de la media de concentración de cadmio por cada lote de
chocolate.
En el gráfico de caja y bigotes (Fig. 4) el único dato
atípico que muestra es el número 15 ya que en el lote 2 todas
las concentraciones de cadmio estuvieron por encima de 4
mg/kg y esta fue de 3,77. Sin embargo esto no tiene ninguna
interferencia en cuanto a la interpretación estadística de los
datos.
2) Comparaciones múltiples
En cuanto a los análisis de comparación múltiple, las
pruebas de Tukey y Fisher (tabla IX), las cuales relacionan
cada lote con respecto al otro, demuestran nuevamente
que no se encuentra diferencia significativa entre las
concentraciones de cadmio, debido a que el valor p de cada
uno es mayor que el nivel de significancia. Por otro lado la
prueba de Duncan (tabla X) evidencia el mismo resultado,
puesto que agrupa todos los lotes de chocolate en un mismo
subconjunto.
Fig. 3. Gráfico de dispersión de la concentración de cadmio en los lotes de
chocolate.
Entre Ciencia e Ingeniería
29
Tabla IX
Pruebas de Comparación Múltiple Tukey y Fisher
Universidad Católica de Pereira
30
Tabla X.
Prueba de Duncan de Subconjuntos Homogéneos
Variable dependentiente: CONCENTRACION Cd (mg/kg)
Se muestran las medias de los grupos de subconjuntos
homogéneos.
Basadas en las medias observadas.
El término de error es la media cuadrática (Error) = ,134.
a. Usa el tamaño muestral de la media armónica = 7,500
b. Los tamaños de los grupos son distintos. Se empleará la
media armónica de los tamaños de los grupos. No se garantizan los niveles de error tipo I.
c. Alfa=,05.
Fig 5. Gráfico de normalidad de residuos.
Tabla XII
Contraste de Levene Sobre la Igualdad de las Varianzas Error
Contrasta la hipótesis nula de que la varianza error de la
variable dependiente es igual a lo largo de todos los grupos
3) Verificación de supuestos
En cuanto a la verificación de supuestos se obtuvo una
distribución normal de los residuales, debido a que en las
pruebas de Kolmogorov y Shapiro Wilk (tabla XI) las dos
arrojaron un valor p mayor que el nivel de significancia
0,05. Finalmente el último supuesto que se verificó fue el de
homogeneidad de varianza (homocedasticidad), por medio
de la prueba de levene (tabla XII) y el grafico de residuales
(Fig. 6). Se comprobó que los datos son homocedasticos
debido a que el valor p supera el nivel de significancia y el
gráfico presenta el patrón normal de comportamiento.
Esto también se puede verificar con el grafico de
normalidad (Fig. 5), el cual sigue el patrón establecido.
Tabla XI
Prueba De Normalidad De Residuos
Fig 6. Gráfico de homocedasticidad de residuales.
IV. Conclusiones
En el estudio realizado se lograron obtener resultados
satisfactorios tanto para el chocolate nacional como para los
extranjeros en cuanto a su contenido de cadmio, es decir,
que en los tipos de muestras analizadas hay presencia del
metal. En cuanto a las muestras del chocolate colombiano
estas superaron los límites de detección y cuantificación, lo
que permite afirmar con certeza, no sólo la presencia, sino
también la cantidad de cadmio en los chocolates.
Entre Ciencia e Ingeniería
31
Por otro lado, la concentración promedio del metal se
encuentra muy por encima de lo que exigen las normas
internacionales como el Codex Alimentarius y la Unión
Europea, lo que genera una gran preocupación debido a la
alta toxicidad del cadmio. En cuanto al diseño experimental
se puede concluir que no existe una diferencia significativa
de la concentración del metal en los diferentes lotes, es decir,
teniendo en cuenta que en total se analizaron 5 lotes con
diferentes fechas de fabricación es posible asumir que todo
el chocolate producido, de este tipo, presenta contaminación
con cadmio.
Por su parte, en los chocolates extranjeros a pesar de que
se verificó la presencia de cadmio; lo que genera la alerta que
esta problemática no sólo se está presentando a nivel nacional
sino en otros países como los europeos, siendo estos los
más consumidores de chocolate en el mundo; los resultados
obtenidos no permiten afirmar con certeza la cantidad del
metal debido a que no superaron el límite de cuantificación,
además tampoco fue posible realizar un diseño experimental
debido a la variabilidad de los resultados, pues los chocolates
obtenidos presentaban diferentes porcentajes de cacao.
[8]
[9]
[10]
[11]
[12]
[13]
[14]
Conociendo la toxicología del cadmio es importante que
a partir de estos resultados y otros estudios realizados en el
país se puedan comenzar a generar normas relacionadas con
la cantidad del metal presente en los chocolates producidos
en Colombia para así controlar el riesgo en la salud de
los consumidores y comenzar a realizar cambios a nivel
industrial con el fin de no perder los beneficios que genera el
consumo de chocolate por su alto contenido de antioxidantes.
[15]
Agradecimientos
[18]
Los autores agradecen a la Universidad del Quindío y a
la Universidad de Santa Cruz del Sur – UNISC de Brasil por
su contribución en el préstamo de los laboratorios, equipos
y reactivos para el desarrollo del proyecto. De igual manera
agradece a los profesores Adilson Ben da Costa y Rodolfo
López por su asesoría y acompañamiento.
[19]
[16]
[17]
[20]
[21]
[22]
Referencias
[1]
[2]
[3]
[4]
[5]
[6]
[7]
Codex Standard for Chocolate and Chocolate Products. Norma
CODEX STAN 87-1981, Rev. 1 – 2003. Codex Alimentarius. 2003.
L. Batista, Guía técnica. El cultivo del cacao. República Dominicana.
Centro para el Desarrollo Agropecuario y Forestal, Inc. 250p. 2009.
K. D. Monahan, “Effect of cocoa/chocolate ingestion on brachial
artery flow-mediated dilation and its relevance to cardiovascular
health and disease in humans.,” Arch. Biochem. Biophys., vol. 527,
no. 2, pp. 90–4, Nov. 2012.
W. A. Jonfia-Essien, G. West, P. G. Alderson, and G. Tucker,
“Phenolic content and antioxidant capacity of hybrid variety cocoa
beans,” Food Chem., vol. 108, no. 3, pp. 1155–1159, Jun. 2008.
F. M. Steinberg, M. M. Bearden, and C. L. Keen, “Cocoa and
chocolate flavonoids: implications for cardiovascular health.,” J. Am.
Diet. Assoc., vol. 103, no. 2, pp. 215–23, Feb. 2003.
L. Fernández-Murga, J. J. Tarín, M. a García-Perez, and a Cano, “The
impact of chocolate on cardiovascular health.,” Maturitas, vol. 69,
no. 4, pp. 312–21, Aug. 2011.
M. B. Engler and M. M. Engler, “The vasculoprotective effects of
[23]
flavonoid-rich cocoa and chocolate,” Nutr. Res., vol. 24, no. 9, pp.
695–706, Sep. 2004.
D. Grassi, G. Desideri, and C. Ferri, “Blood pressure and
cardiovascular risk: what about cocoa and chocolate?,” Arch.
Biochem. Biophys., vol. 501, no. 1, pp. 112–5, Sep. 2010.
J. Mursu, S. Voutilainen, T. Nurmi, T. H. Rissanen, J. K. Virtanen,
J. Kaikkonen, K. Nyyssönen, and J. T. Salonen, “Dark chocolate
consumption increases HDL cholesterol concentration and chocolate
fatty acids may inhibit lipid peroxidation in healthy humans.,” Free
Radic. Biol. Med., vol. 37, no. 9, pp. 1351–9, Nov. 2004.
A. N. Sokolov, M. a Pavlova, S. Klosterhalfen, and P. Enck,
“Chocolate and the brain: neurobiological impact of cocoa flavanols
on cognition and behavior.,” Neurosci. Biobehav. Rev., vol. 37, no. 10
Pt 2, pp. 2445–53, Dec. 2013.
International Cocoa Organization - ICCO. The World Cocoa
Economy: Past and Present. 2012. Disponible: http://www.icco.
org/about-us/international-cocoa-agreements/cat_view/30-relateddocuments/45-statistics-other-statistics.html. Consultado el 19 de
diciembre de 2014.
F. A. Pimentel, J. A. Nitzke, C. B. Klipel, and E. V. De Jong,
“Chocolate and red wine – A comparison between flavonoids
content,” Food Chem., vol. 120, no. 1, pp. 109–112, May 2010.
R. L. Yanus, H. Sela, E. J. C. Borojovich, Y. Zakon, M. Saphier, A.
Nikolski, E. Gutflais, A. Lorber, and Z. Karpas, “Trace elements in
cocoa solids and chocolate: an ICPMS study.,” Talanta, vol. 119, pp.
1–4, Mar. 2014.
S. Rehman and S. M. Husnain, “Assessment of trace metal contents
in chocolate samples by Atomic Absorption Spectrometry,” J. Trace
Elem. Anal., vol. 1, no. 1, pp. 1–11, Oct. 2012.
Norma general del codex para los contaminantes y las toxinas
presentes en los alimentos y piensos. Norma CODEX STAN 1931995. Codex Alimentarius. 1995.
M. Rodrigues, N. Martínez-de la Casa, M. C. Romero, L. A. del Rio,
and L. M. Sandalio, “Toxicidad del Cadmio en Plantas,” Ecosistemas.
Rev. científica Ecol. y medio Ambient., vol. 17, no. 3, pp. 139–146,
Apr. 2008.
A. Ramírez, “Toxicología del cadmio. Conceptos actuales para
evaluar exposición ambiental u ocupacional con indicadores
biológicos,” An. la Fac. Med. Univ. Nac. Mayor San Marcos, vol. 63,
no. 1, pp. 51–64, 2002.
M. P. Benavides, S. M. Gallego, and M. L. Tomaro, “Cadmium
toxicity in plants,” Toxic Met. Plants, vol. 17, no. 1, pp. 21–34, 2005.
T. L. Roberts, “Cadmium and Phosphorous Fertilizers: The Issues
and the Science,” Procedia Eng., vol. 83, pp. 52–59, 2014.
C. A. Grant, “Influence of Phosphate Fertilizer on Cadmium in
Agricultural Soils and Crops,” Agric. Agri.Food Canada. Brand.
Res. Cent., pp. 143–155, Feb. 2011.
L. Järup and A. Akesson, “Current status of cadmium as an
environmental health problem.,” Toxicol. Appl. Pharmacol., vol. 238,
no. 3, pp. 201–8, Aug. 2009.
M. Waalkes, “Cadmium carcinogenesis,” Mutat. Res. Mol. Mech.
Mutagen., vol. 533, no. 1–2, pp. 107–120, Dec. 2003.
International Agency for Research on Cancer - IARC. Agency
classified by the IARC monographs. Vol. 1-111. 2012. Disponible:
http://monographs.iarc.fr/ENG/Classification/index.php. Consultado
el 7 de enero de 2014.
[24] F. J. Krug, Métodos preparo de amostras. Fundamentos sobre
preparo de amostras orgânicas e inorgânicas para análise elementar,
Primera edição. Brasil. F.J Krug., 340 f. 2010.
[25] N. J. Miller, and J. C. Miller. Estadística y Quimiometría para
Química Analítica, Cuarta edición. Madrid. Pearson Educación S.A.,
2002, 278 p.
[26] L. Ebdon, E.H. Evans, A. S. Fisher, S. J. Hill. An Introduction to
Analytical Atomic Spectrometry. John Wiley & Sons ltd., 1998, 195
p.
[27] Proposed draft maximum levels for cadmium in chocolate and
cocoa-derived products. Norma CX/CF 15/9/6. Codex Alimentarius
Commission. 2014. Join FAO/WHO Food Standards Programme
Codex Committee on Contaminants in Food, Dec. 2014.
[28] Amending Regulation (EC) No 1881/2006 as regards maximum
levels of cadmium in foodstuffs. Norma Commission Regulation
(EU) No 488/2014. Eurpean Union, May. 2014.
Universidad Católica de Pereira
32
[29] G. F. Nordberg, “Historical perspectives on cadmium toxicology.,”
Toxicol. Appl. Pharmacol., vol. 238, no. 3, pp. 192–200, Aug. 2009.
[30] S. Dahiya, R. Karpe, a. G. Hegde, and R. M. Sharma, “Lead,
cadmium and nickel in chocolates and candies from suburban areas
of Mumbai, India,” J. Food Compos. Anal., vol. 18, no. 6, pp. 517–
522, Sep. 2005.
Henry Reyes Pineda es ingeniero químico egresado de la Universidad
Nacional de Colombia, Sede Manizales con Especialización en Educación
Ambiental, Especialización en Ingeniería Electroquímica y Corrosión,
Diploma de Estudios Avanzados en Tecnologías de Membranas,
Electroquímica y medio Ambiente Seguridad Nuclear y con un Doctorado
en Ingeniería Química y Nuclear de la Universidad Politécnica de Valencia,
España.
Actualmente es profesor de tiempo completo de la Universidad del Quindío,
Armenia, Colombia y Decano de la Facultad de Ciencias Agroindustriales;
hace parte del Grupo Químico en Investigación y Desarrollo Ambiental.
Ha sido docente de la Universidad de Caldas, Universidad Nacional,
Universidad Católica de Pereira, Sede Manizales y Universidad Autónoma
de Manizales. Entre sus áreas de trabajo investigativo se encuentran La
Ingeniería Electroquímica, Los Procesos ambientales, el Tratamiento de
residuos sólidos y líquidos, el Diseño de Reactores, entre otros.
El Doctor Reyes Pineda, se gradúo en el 2007, obteniendo la máxima
calificación en su Tesis Doctoral: “Cum Laude” Ha sido profesor visitante
en tres oportunidades a la Universidad Politécnica de Valencia, España y en
dos ocasiones a la Universidad de santa Cruz del Sur, Brasil, desarrollando
actividades académicas e investigativas. Igualmente ha participado como
conferencista en diferentes congresos nacionales e internacionales.
Alejandra Echeverry Aranda es ingeniera de alimentos egresada de
la Universidad de Antioquia, Sede Medellín con Maestría en Química de
la Universidad del Quindío. El título de Magister lo obtuvo en el mes
de mayo de 2015 con el reconocimiento de tesis meritorio al trabajo de
grado titulado “Determinación cuantitativa y análisis de cadmio presente
en chocolates colombianos con alto contenido de cacao”.
Actualmente es profesora ocasional de tiempo completo de la Universidad
del Quindío de la facultad de Ciencias Agroindustriales en el programa de
Ingeniería de Alimentos, hace parte del Grupo Químico en Investigación y
Desarrollo Ambiental.
Entre Ciencia e Ingeniería
33
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 33-39
Construcción de modelos 3D para la enseñanza de la Ley de Gauss
en forma diferencial1
Building 3D models in order to teach the Gauss’ Law in a
differential form
Construção de modelos 3D para o ensino da lei de Gauss em forma
diferencial
A.A. Rojas, G.A. Atehortúa, R.G. Márquez, D. Osorio, S. López y C.E. Mora
Recibido Septiembre 03 de 2015 – Aceptado Febrero 19 de 2016
Resumen— En este artículo se muestran algunos resultados
de un proyecto de investigación que tenía como principal
objetivo involucrar a los estudiantes en actividades de
modelación científica a través de la construcción de modelos
computacionales. El estudio fue realizado con un grupo de 43
estudiantes de los programas de ingeniería civil y de sistemas,
de la Universidad Cooperativa de Colombia – Sede Ibagué, y
estuvo fundamentado en la modelación científica, la modelación
computacional y la Teoría del Aprendizaje Significativo Crítico.
Los principales hallazgos develan que la implementación de la
propuesta didáctica fundamentada en situaciones problema a
ser modeladas haciendo uso de programas computacionales,
favoreció la interacción de los estudiantes, la discusión, la
formulación de preguntas de interés sobre la temática de la Ley
de Gauss y la construcción de modelos computacionales para
representar las situaciones problema planteadas; generándose
así la comprensión de conceptos relativos al campo de
conocimiento.
Palabras clave — enseñanza de la física, Ley de Gauss,
modelación computacional.
1
Producto derivado del proyecto de investigación “Una estrategia
didáctica centrada en las TIC para la enseñanza de las matemáticas y su
incidencia en el desarrollo del pensamiento”. Presentado por el Grupo
de Investigación LOGIKE, de la Universidad Cooperativa de Colombia
(Ibagué).
A.A. Rojas docencia en el programa de Ingeniería de Sistemas, de
la Universidad Cooperativa, Ibagué (Colombia); email: [email protected]
campusucc.edu.co .
G.A. Atehortua docencia SENA, Centro Agropecuario la Granja,
Espinal (Colombia); email: [email protected] .
R.G. Márquez estudiante en el programa de Ingeniería de Sistemas,
de la Universidad Cooperativa, Ibagué (Colombia); email: [email protected]
hotmail.com .
D. Osorio estudiante en el programa de Ingeniería de Sistemas, de la
Universidad Cooperativa, Ibagué (Colombia); email: [email protected] .
S. López docencia en la Facultad de Educación, de la Universidad de
Antioquia, Medellín (Colombia); email: [email protected]
C.E. Mora director del programa de Doctorado en Física Educativa,
del Instituto Politécnico Nacional, Mexico D.F. (México); email: [email protected]
gmail.com .
Abstract— This article presents some results of a research
project aimed mainly to involve students in scientific modeling
activities, through building computer models. The study was
conducted with a group of 43 students of Civil and Systems
Engineering from Universidad Cooperativa de Colombia,
located in Ibague, and was based on the scientific modeling, the
computational modeling and the Meaningful Critical Learning
Theory. The main findings reveal that the implementation of
the didactic approach based on problem situations that were
modeled on computer programs, favored student interaction,
discussion, the formulation of questions based on the Gauss’
Law and the construction of computer models used to represent
problem situations presented, generating an understanding of
concepts related to the field of knowledge.
Key words — Physics teaching, Gauss’ law, computational
modeling.
Resumo – Nesse artigo se mostram alguns resultados de
um projeto de investigação que tinha como principal objetivo
envolver os alunos em atividades de modelagem científica através
da construção de modelos computacionais. O estudo foi realizado
com um grupo de 43 estudantes dos programas de engenharia
civil e de sistemas, da Universidade Cooperativa de Colômbia –
Sede Ibagué, e foi baseada em modelagem científica, modelagem
computacional e teoria da aprendizagem significativa crítica.
As principais conclusões revelam que a implementação da
proposta educacional com base em situações-problema a ser
modelado, fazendo uso de programas de computador, trouxe à
interação dos alunos, a discussão, a formulação de perguntas de
interesse sobre o tema da Lei de Gauss e a construção de modelos
computacionais para representar as situações problemas postas;
gerando assim à compreensão de conceitos relativos ao campo de
conhecimento.
Palavras chaves: O ensinamento da física, Lei de Gauss,
modelação computacional.
Universidad Católica de Pereira
34
I. Introducción
T
emáticas como la Ley de Gauss y en general, aquellas
relacionadas con el concepto de campo en física, sin
lugar a dudas se constituyen en componentes fundamentales
en la formación de ingenieros. No obstante, la difícil
comprensión de estos temas por parte de los estudiantes,
se ha constituido en objeto de varias investigaciones [1,
2, 3]. Además, algunos estudios muestran que la mayoría
de los estudiantes es incapaz de dar un significado físico al
campo independientemente del concepto de fuerza [4, 5,
6] lo que puede deberse a que en el aula se hace énfasis
normalmente en el carácter operativo del concepto de campo
y sólo un 30% del profesorado admite realizar discusiones
cualitativas que clarifiquen el concepto de campo y lo doten
de significado [7].
También es importante considerar que el concepto de
campo es posiblemente uno de los conceptos más abstractos
en física y su abordaje desde modelos estrictamente
teóricos, puede constituirse en un obstáculo más que
dificulta su aprendizaje; siendo otros posibles obstáculos
la representación de este concepto a través de imágenes
estáticas y animistas y la carencia de situaciones reales en
las que el concepto pueda ser aplicado.
La identificación de estas dificultades dio lugar a la
formulación de un proyecto de investigación que tenía como
principal propósito involucrar a los estudiantes en actividades
de modelación científica a través de la construcción de
modelos computacionales, intentando así acercarlos a
una mejor comprensión del proceso de producción de
conocimiento científico, al considerar la modelación como
un elemento fundamental en la construcción de éste [8, 9,
10, 11, 12].
En lo que se refiere a la concepción del proceso de
modelación científica, es abordada la postura epistemológica
de Mario Bunge [9], entendiendo ésta como un proceso de
construcción de modelos con el propósito de apresar la
realidad; del cual resultan los modelos conceptuales como
explicaciones del mundo, representaciones simplificadas e
idealizadas de la realidad [11, 13, 14,15, 16, 17, 18, 19, 20,
21, 22, 23].
En el ámbito de este trabajo nos referimos a la modelación
como un proceso de construcción de modelos, a partir del
cual los modelos idiosincrásicos y tácitos (representaciones
internas) que poseen los estudiantes se conviertan en modelos
explícitos (representaciones externas) que se aproximen
cada vez más a los modelos científicamente aceptados.
Representaciones que pueden ser construidas a partir del
uso de herramientas TIC, con el propósito de que éstas
permitan convertir los modelos estáticos bidimensionales de
los libros de texto, en modelos dinámicos y tridimensionales
que favorezcan la comprensión de los conceptos en juego.
Entre Ciencia e Ingeniería
II. Referentes conceptuales
A. Acerca de los modelos y la modelación científica
En las últimas décadas, la incursión en el campo de
los modelos y de la modelación científica orientada a los
procesos de enseñanza y aprendizaje de las ciencias, y la
posibilidad de que dicho campo sea orientado desde una
perspectiva didáctica fundamentada en la modelación y la
simulación computacional, sugieren la necesidad de asumir
una visión crítica que implique la asunción de enfoques
epistemológicos centrados en la concepción de modelos y
modelación científica. Debido a esto, es pertinente abordar
la visión epistemológica de Mario Bunge para orientar una
enseñanza de las ciencias centrada en los modelos y en la
modelación.
Considerando el uso de la modelación en el aula de
clase como un enfoque fundamental en la enseñanza de las
ciencias, se hace imprescindible ayudar a los estudiantes a
aprender acerca de la naturaleza de los modelos científicos, el
proceso de construcción de dichos modelos y su utilidad en la
predicción y la descripción de los fenómenos del mundo real
[24]. Con este propósito, se recurre a la concepción de Mario
Bunge [9], acerca de la modelación científica y el papel que
desempeñan los modelos científicos en la construcción de
conocimiento, con la firme convicción de que estos últimos
cumplen un rol fundamental en la enseñanza de las ciencias
[21, 25].
Los modelos a los que Bunge hace referencia se
construyen como explicaciones del mundo y con el
propósito expreso de apresar la realidad, y son asumidos
como representaciones simplificadas e idealizadas de ésta y
no como la realidad misma.
Esta visión es compartida por diversos autores, quienes
pueden considerarse autoridades en relación con las
reflexiones realizadas sobre los modelos y la modelación
científica [11, 17, 19, 21, 23]. El proceso de construcción
de dichos modelos es lo que se entiende como modelación
científica, considerando que todo modelo científico
contribuye a optimizar la comprensión de la realidad, la
aprehensión del mundo.
B. La modelación computacional en la enseñanza de la
física
Cuando nos remitimos a las TIC en contextos educativos
y concretamente a su uso en la enseñanza de la física, es
casi seguro que nuestro referente más concreto se enmarca
en el uso del computador; posiblemente porque la mayor
cantidad de trabajos que se han publicado en relación con el
uso de TIC en el aula, hacen referencia a la implementación
de herramientas computacionales en los procesos de
enseñanza-aprendizaje de conceptos físicos. Y es que el uso
del computador como recurso didáctico en la enseñanza
35
de la física, brinda varias posibilidades que van desde el
tratamiento de cálculos, gráficas, como instrumento de
medición, como instrumento de adquisición y procesamiento
de datos, hasta la realización de simulaciones y modelos
computacionales acerca de fenómenos físicos.
A partir de lo anterior, es posible identificar las
principales modalidades pedagógicas del uso del
computador en la enseñanza de la física en el nivel medio
y universitario; entre las cuales se encuentran: instrucción
y evaluación mediada por el computador; modelación y
simulación computacional; recolección y análisis de datos
en tiempo real; recursos multimedia; comunicación a
distancia; Resolución algebráica/numérica y visualización
de soluciones matemáticas; y estudio de procesos cognitivos
[26]. Modalidades pedagógicas del uso del computador,
entre las cuales la modelación y simulación computacional
suele ser no sólo la más utilizada, sino, posiblemente la de
mayor potencial para la enseñanza de la física.
La modelación computacional se ha convertido en una
potencial herramienta para la enseñanza de las ciencias, ya
que permite dar cuenta de un fenómeno estudiado desde
distintos puntos de vista de modo más simple y directo
que la experimentación convencional en un laboratorio,
convirtiéndose además en un valioso complemento
para el trabajo experimental. Asimismo, la modelación
computacional permite al estudiante construir una idea,
representación, imagen o modelo mental a partir de imágenes
externas, necesarias para la comprensión del mundo físico
[27].
Entre las herramientas TIC existe una amplia variedad de
programas de modelación computacional, algunos de ellos
con un lenguaje de programación lo suficientemente asequible
como para que los estudiantes con algún dominio de conceptos
matemáticos y físicos puedan hacer uso de ellos y crear
modelos o representaciones que evidencien su comprensión
sobre un determinado fenómeno o concepto de la física.
C. La interacción social y el cuestionamiento
La formulación de preguntas en el aula de clase ha
sido tradicionalmente una tarea propia de los docentes,
quienes – en muchas ocasiones – esperan que las respuestas
de los estudiantes estén expresadas en los términos de sus
discursos, negándoles así la posibilidad de cuestionamiento;
de tal manera que los estudiantes formulan pocas preguntas
en el aula de clase y, además las preguntas frecuentemente
formuladas tienen un bajo nivel cognitivo [28, 29]. Esto
nos sugiere replantear esta actividad en el aula de clase,
al asumir que la formulación de preguntas por parte de los
estudiantes es una estrategia cognitiva que les permite lograr
habilidades de orden superior [30].
La importancia de que los estudiantes desarrollen
la capacidad de formular preguntas tiene un trasfondo
epistemológico; de acuerdo con Bachelard [12], “para un
espíritu científico todo conocimiento es una respuesta a una
pregunta. Si no hubo pregunta, no puede haber conocimiento
científico”.
Enmarcados en la visión de Moreira [31] en relación con
la posibilidad de generar un aprendizaje significativo crítico
en el aula de clase, nos enfocamos en el primer –y a nuestro
modo de ver el más importante– postulado de la Teoría del
Aprendizaje Significativo Crítico propuesta por este autor,
que hace referencia al principio del cuestionamiento; es
decir, al acto de enseñar/aprender preguntas en lugar de
respuestas.
III. Construyendo modelos computacionales
A. Metodología de investigación
Como ya fue mencionado, en este artículo se presenta
parte de los resultados de un proyecto de investigación que
tenía como principal objetivo involucrar a los estudiantes
en actividades de modelación científica a través de la
construcción de modelos computacionales. En esta parte
concreta del estudio, se muestran las construcciones
hechas por los estudiantes en el marco de la modelación
computacional, a partir de las potencialidades del software
utilizado y de sus conocimientos previos sobre el tema
particular. Para ello fue adoptada una metodología cualitativa
del tipo estudio de casos; dado que ésta permite conocer
la particularidad y la complejidad de un caso singular,
para llegar a comprender su actividad en circunstancias
importantes.
Desde esta perspectiva, los casos estuvieron constituidos
por los grupos de trabajo conformados por los estudiantes
participantes en la investigación.
B. Estudiantes participantes
El estudio se llevó a cabo con un grupo de 43 estudiantes
de los programas de ingeniería civil y de sistemas, de la
Universidad Cooperativa de Colombia –Sede Ibagué-,
que se encontraban matriculados en un curso de física
de electricidad, correspondiente al tercer semestre de su
carrera; a quienes se les invitó a conformar grupos para
diseñar y construir modelos computacionales que facilitaran
la comprensión de los conceptos inherentes y el desarrollo
matemático de la ecuación de la Ley de Gauss para el campo
eléctrico en forma diferencial.
C. Referente metodológico para la construcción de
modelos
El proceso de diseño y construcción de modelos se
fundamentó en la propuesta de modelación esquemática de
Universidad Católica de Pereira
36
Halloun [16]. Este autor considera los modelos como los
mayores componentes del conocimiento de una persona y la
modelación como un proceso cognitivo para la construcción
y empleo del conocimiento; centrándose en el principio
de que, en física, el aprendizaje del alumno será tanto más
significativo cuanto mayor sea su capacidad de modelar. Este
referencial metodológico es abordado por ser una estrategia
instruccional que brinda herramientas para externalizar los
modelos conceptuales; pero sobre todo, por su conveniencia
para el diseño de las actividades de modelación a partir
de los cinco estadios: selección, construcción, validación,
análisis y expansión de un modelo.
La Fig. 1 muestra el proceso de modelación esquemática
que puede ser sistemáticamente aplicado en el contexto
de una teoría conveniente para la construcción de nuevos
modelos, refinándolos y empleándolos en situaciones
específicas (situaciones del mundo real, experimentos de
laboratorio o problemas de libros de texto).
implicaciones pueden ser inferidas en relación al
propósito original y a otros propósitos de validación.
Esto ayuda al modelador a desarrollar sus habilidades de
transferencia.
D. Diseño y construcción de modelos
Con base en el proceso de modelación esquemática de
Halloun, se conforman grupos de 3 y 4 estudiantes y se les
plantea como situación problema, construir la representación
de la ley de Gauss en tres dimensiones, haciendo uso de
programas que posibilitan la construcción de modelos
computacionales, tales como: SketchUp, Power Point y
AutoCAD.
Cabe anotar, que este concepto fue previamente enseñado
a los estudiantes, utilizando un tiempo de instrucción de
seis horas y teniendo como base para la explicación las
representaciones gráficas que aparecen en algunos libros de
texto de Física [32, 33].
Los estudiantes eligen el software que a su modo de
ver les permite construir una mejor representación; y es así
como se inicia un ejercicio de trabajo en grupo que tarda un
tiempo aproximado de nueve horas; y como producto de su
creatividad y del ejercicio de discusión, toma de decisiones,
formulación de preguntas; finalmente se obtienen diversos
modelos computacionales que dan cuenta de la comprensión
adquirida por los estudiantes sobre la ley de Gauss.
IV. Análisis de resultados
Fig.1. Representación esquemática del proceso de Modelación. (Hestenes
apud Halloun, [15]).
A. Modelos construidos
Este proceso de modelación esquemática se compone de
cinco estadios:
En las Fig. 2, 3 y 4, se muestran los modelos computacionales construidos por tres grupos de estu• Selección del modelo: identificación y descripción de la diantes para representar la ley de Gauss en tres
composición de cada sistema físico de la situación física dimensiones.
y del respectivo fenómeno).
• Construcción del modelo: el modelador se enfrenta a la
actividad de construir modelos.
• Validación del modelo: este estadio puede ser
simultáneo con la construcción del modelo considerando
esencialmente la consistencia interna del modelo.
• Análisis del modelo: una vez que el modelo ha sido
validado, un análisis puede ser hecho en el sentido
de verificar si todos los propósitos están siendo
contemplados en el modelo que está siendo construido.
• Expansión del modelo: una vez que un modelo
fue analizado y completamente validado, algunas
Entre Ciencia e Ingeniería
Es importante resaltar que una de las principales
características de los modelos construidos, es su
funcionalidad; es decir, la posibilidad que éstos brindaron
a los estudiantes para describir y explicar la situación
problema a partir de los diferentes componentes del modelo
y de la potencialidad del software elegido para construir los
modelos.
En la Fig. 2 se muestra un modelo computacional para
la Ley de Gauss construido con el programa SketchUp; un
software que permite construir modelos en 3D y rotarlos para
tener una visión de los mismos desde diferentes ángulos.
Asimismo, permite dibujar todo tipo de líneas y formas, que
lo hace apropiado para construir modelos que hagan uso, por
ejemplo, de líneas de campo; como es el caso de la temática
aquí abordada. SketchUp brinda la posibilidad de convertir
37
un modelo en un conjunto de dibujos que pueden facilitar su
comprensión; exporta PDF, imágenes o archivos CAD.
El grupo que construyó este modelo computacional,
estuvo constituido por tres estudiantes que interactuaron
permanente a partir de preguntas que movilizaban su
pensamiento y les permitían llegar a los consensos
necesarios para consolidar su modelo. De tal manera que
éste se constituyó en una representación, producto de la
negociación de significados entre los integrantes del grupo,
que proporcionaba evidencias de la conceptualización
lograda; y que se acompañó de sus argumentos y explicación.
Y dado que este software no cuenta con ventanas y/o
espacios para describir las representaciones matemáticas
propias del modelo, los estudiantes recurrieron a la
incorporación de las mismas en la diapositiva final, apoyando
la construcción del modelo con sus explicaciones.
Fig. 3. Modelo computacional construido con Power Point
Fig. 2. Modelo computacional construido con SketchUp.
En la Fig. 3 podemos observar un modelo computacional
construido por los estudiantes para representar la Ley de
Gauss, haciendo uso del conocido programa Power Point;
del que desconocemos muchas de sus potencialidades en
términos de modelación, por ser un programa utilizado
básicamente para realizar presentaciones. A pesar de
sus múltiples limitaciones para la construcción de
representaciones en 3D, sus posibilidades para la animación
lo convierten en una herramienta valiosa para familiarizar a
los estudiantes con el proceso de construcción de modelos
computacionales.
El grupo que construyó este modelo computacional,
estuvo conformado por cuatro estudiantes que se
caracterizaban por sus pocas habilidades en el uso de
herramientas computacionales; lo que con seguridad pudo
motivarlos a hacer uso de un programa tan básico como
el Power Point, para construir su modelo. No obstante,
lo que nos muestra este grupo de estudiantes, es que
independientemente de la herramienta elegida para construir
su representación, ésta permitía externalizar la comprensión
que habían logrado acerca de la ley de Gauss. Comprensión
que fue producto de largas discusiones entre los integrantes,
que se centraron más en aspectos relativos a los conceptos
que al manejo de la herramienta como tal. Viéndose
altamente favorecida la interacción social para negociar y
construir significados de la física.
La Fig. 4 representa un modelo computacional construido
por otro grupo de estudiantes para recrear la ley de Gauss.
Este modelo ha sido construido haciendo uso del programa
AutoCAD; un software que permite la construcción de
imágenes en dos o tres dimensiones. Aunque AutoCAD fue
creado esencialmente para el diseño industrial, es factible su
uso en la enseñanza de la física, gracias a las posibilidades
que brinda para la construcción de representaciones de
conceptos físicos, lo que se facilita por el uso que hace
de diversos elementos geométricos y el procesamiento de
imágenes vectoriales, que lo convierten en un aliado perfecto
para la construcción de modelos relacionados con conceptos
como el de campo.
Este grupo conformado por tres estudiantes, aunque
en principio no contaba con un gran dominio del software
elegido para la construcción del modelo, optó por el
mismo reconociendo las potencialidades que brinda para la
construcción y visualización de modelos computacionales
en tres dimensiones.
No obstante, debido a que el software no revestía mayor
complejidad en su manejo, y al parecer, contaban con un
dominio del mismo, los estudiantes lograron concentrarse en
aspectos propios de la conceptualización; de tal manera que
la gran mayoría del tiempo se dedicaron a la discusión de las
ecuaciones que permitían explicar el fenómeno estudiado,
dando relevancia a su comprensión y a la coherencia con la
representación gráfica del mismo.
Al respecto, es importante resaltar que este modelo fue
uno de los que pudo ser mejor visualizado por el grupo por la
fácil interacción con el software y las valiosas características
para el diseño de imagen.
Universidad Católica de Pereira
38
Referencias
[1]
[2]
[3]
[4]
Fig. 4. Modelo computacional construido con AutoCAD
V. Conclusiones
Conocer las dificultades con que se encuentran los
estudiantes para crear representaciones sobre los conceptos
de campo eléctrico y flujo eléctrico sugiere un planteamiento
didáctico diferente para el abordaje de éstos en el aula de
clase; siendo la modelación computacional una interesante
alternativa, en la medida en que favorece la comprensión de
conceptos científicos al ponerlos en juego en el proceso de
construcción de modelos.
Encontramos además que la tarea de construir modelos
computacionales desde su estructura matemática, permitió a
los estudiantes recrear la actividad de modelación científica,
contrastando permanentemente la representación gráfica
del concepto con el modelo teórico (matemático) que le
otorga sentido; así como enfrentándose a la formulación de
preguntas pertinentes sobre aspectos esenciales de la ley de
Gauss y sus diferentes representaciones 3D.
Este último aspecto merece ser destacado porque de
forma tradicional el estudiante aprende solamente a dar
respuestas correctas, y no se le enseña a desarrollar la destreza
de formular preguntas. Aspecto que fue ampliamente
favorecido por la interacción social que genera el trabajo en
grupo y las discusiones que se dan a partir de las situaciones
problema que dan lugar a la construcción de los modelos.
Los resultados de este estudio dan cuenta de la
pertinencia de las actividades de modelación computacional
para involucrar a los estudiantes en procesos de modelación
científica, dado que los libros de texto poco informan acerca
de la necesidad de este proceso fundamental de la ciencia,
impidiendo percibir el hacer científico y mostrando los
modelos como simples representaciones simplificadas de
los fenómenos [34].
Agradecimientos
Agradecemos a la Universidad Cooperativa de Colombia
por su apoyo y financiación en las diferentes etapas del
proyecto de investigación que da lugar a este artículo como
uno de los productos.
Entre Ciencia e Ingeniería
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
C. Furió, and J. Guisasola, “Deficiencias epistemológicas en la
enseñanza habitual de los conceptos de campo y potencial eléctrico”.
Enseñanza de las ciencias, vol.15, no.2, pp. 259-271, 1997.
A. Llancaqueo, M.C. Caballero, and M.A. Moreira, “El concepto
decampo en el aprendizaje de la física y en la investigación en
educación en ciencias”, Revista Electrónica de Enseñanza de las
ciencias, vol.2, no.3, pp.227-253, 2003.
E. Osorio, L. S. Mejía, J. A. Osorio, G. E. Campillo and R. Covaleda,
“Análisis de la Enseñanza y el Aprendizaje del electromagnetismo
en el Nivel Tecnológico y Universitario”, Revista Entre Ciencia e
Ingeniería, Año 6, no 12, pp24-28, 2012.
C. Furió, and J. Guisasola, “Dificultades de aprendizaje de los
conceptos de carga y de campo eléctrico en estudiantes de bachillerato
y universidad”. Enseñanza de las ciencias: revista de investigación y
experiencias didácticas, 16(1), pp. 131-146, 1998.
C. Furió, and J. Guisasola, “La enseñanza del concepto de “campo
eléctrico” basada en un modelo de aprendizaje como investigación
orientada”. Enseñanza de las ciencias: revista de investigación y
experiencias didácticas, 19(2), pp. 319-334, 2001.
M. Sandoval and C. Mora, “Modelos erróneos sobre la comprensión
del campo eléctrico en estudiantes universitarios”, Lat. Am. J. Phys.
Educ. Vol. 3, No. 3, Sept. 2009
J. Martín, and J. Solbes. “Diseño y evaluación de una propuesta para
la enseñanza del concepto de “campo” en física. Enseñanza de las
Ciencias, Vol. 19, pp. 393-403, 2001.
S. Toulmin. “La comprensión humana: el uso colectivo y la evolución
de los conceptos”. Madrid: Alianza, 1977.
M. Bunge. “Teoría y Realidad”. Barcelona: Ediciones Ariel, 1972.
M. Bunge. “La investigación científica”. Barcelona: Ariel, 1985.
R. Giere. “Explaining Science. A cognitive approach”. Chicago:
University Chicago Press, 1988.
G. Bachelard. “La formación del espíritu científico”. México: Siglo
XXI Editores, 1982.
L. Grosslight, C. Unger, E. Jay, and C.L. Smith. “Understanding
models and their use in science: Conceptions of middle and high
school students and experts”. Journal of Research in Science
teaching, 28(9), pp. 799-822, 1991.
S.W. Gilbert. “Model building and a definition of science”. Journal of
Research in Science Teaching, 28, pp. 73-79, 1991.
I. Halloun. “Schematic Modeling for Meaningful learning of
Physics”. Journal of Research in Science Teaching, 33, 9, pp. 10191041, 1996.
I. Halloun. “Modeling Theory in Science Education”. Boston: Kluwer
Academic Publishers, 2004.
I.M. Greca, and M.A. Moreira. “Modelos mentales, modelos
conceptuales y modelización”. Caderno Catarinense de Ensino de
Física, 15 (2), pp. 107-120, 1997.
M.A. Moreira, I.M. Greca, and M.L.R. Palmero. “Mental models and
conceptual models in the teaching and learning of science”. Revista
Brasileira de Investigação em Educação em Ciências, 2(3), pp. 8496, 2002.
R. Justi, and J. Gilbert. “History and philosophy of science through
models: some challenges in the case of’the atom”. International
Journal of Science Education, 22(9), pp. 993-1009, 2000.
R. Justi, and J. K. Gilbert. “Modelling, teachers’views on the nature of
modelling, implications for the education of modellers”. International
Journal of Science Education, 24(4), pp. 369-387, 2002.
R. Justi, “La enseñanza de ciencias basada en la elaboración de
modelos”. Enseñanza de las Ciencias, 24 (2), pp. 173–184, 2006.
R. N. Giere. How models are used to represent reality. Philosophy of
science, 71(5), 742-752, 2004.
R. N. Giere. “An agent-based conception of models and scientific
Representation”. Synthese, 172 (2), pp. 269-281, 2010.
B. Y. White. “Computer Microworlds and Scientific Inquiry: An
alternative approach to Science Education”, en Fraser, B. J. y Tobin,
K. G., International Handbook of Science Education , Dordrecht,
Kluwer Academic Publishers, pp. 295-315, 1998.
A. Cupani, and M. Pietrocola “A relevancia da epistemologia de
Mario Bunge para o ensino de ciencias”. Caderno Catarinense de
Ensino de Física, 19 (número especial), pp. 96-120, 2002.
39
[26] I.S. Araujo, I.S. Araujo y M. A. Moreira. “Uma revisão da literatura
sobre estudos relativos a tecnologias computacionais no ensino de
Física”. Revista Brasileira de Pesquisa em Educação em Ciências,
4, 3, pp. 5-18, 2004.
[27] S. López, A. E. Veit, y I.S. Araujo. “La modelación computacional
con diagrama AVM en la formación de profesores de física: un aporte
al desarrollo de una visión crítica sobre la ciencia y la modelación
científica”. Revista Electrónica de Investigación en Educación en
Ciencias, 9, 2, pp. 58-72, 2014.
[28] J.T. Dillon. “The remedial status of student questioning”. Journal
of Curriculum Studies, Basingstoke, v. 20, n. 3, pp. 197-210, 1988.
[29] J. Otero, and A. Graesser. “Elements of a model of question asking.
Cognition and Instruction”, Mahwah, 19(2), pp. 143-175, 2001.
[30] B. Rosenshine, C. Meister and S. Chapman. “Teaching students
to generate questions: a review of intervention studies”. Review of
Educational Research, Washington, 66(2), pp. 181-221, 1996.
[31] M. A. Moreira. “Aprendizaje significativo crítico”. Porto alegre:
Instituto de Física, UFRGS, 2005.
[32] M. Alonso and E. Finn, Física Campos y Ondas, Vol. II. Wilmington,
Adisson-Wesley Iberoamericana, 1987, pp. 583-585.
[33] F. Sears, M Zemansky, H. Young and R Freedman, Fisica Universitaria
con Fisica Moderna, Undecima edicion, Vol. II. Mexico: Pearson
Educacion, 2005, pp. 844-847.
[34] G. Brockington and M. Pietrocola. “Serao as regras da transposicao
didática aplicaveis aos conceitos de física moderna”. Investigacoes
em Ensino de Ciencias, 10(3), pp. 387-404, 2005.
Ángel Antonio Rojas García, nació
en Icononzo Tolima, Colombia, el 21 de
diciembre de 1959. Se graduó en Licenciatura
de Matemáticas y Física en 1987 en la
Facultad de Educación de la Universidad
del Tolima en Ibagué. Especialista en Física,
Universidad del Tolima en 1997. Magister
en Ciencias de la Educación, Universidad
Central de Chile en 2010. Candidato a Doctor
en Ciencias en Física Educativa en el Instituto
Politécnico Nacional de México en 2014. Se
ha desempeñado como profesor de Física
desde 1996 en la Universidad del Tolima y la Universidad Cooperativa
de Colombia y su actual tema de interés e investigación es el diseño e
implementación de herramientas computacionales para la enseñanza de la
Física.
Gustavo Alberto Atehortua Rico, nació
en Ibagué Tolima, Colombia el 1 de Julio de
1972. Ingeniero Industrial Egresado de la
Universidad de Ibagué. Especializado en
gerencia de proyectos agroindustriales. Desde
el año 1998 se desempeñó como docente
universitario, coordinador y director de
importantes instituciones como Redecomputo,
Compusis de Colombia, Master Web e
Imfeg. Instructor del SENA y miembro de
los grupos de investigación SENAAGROTIC
y DINAMOTIC. Se ha distinguido por la
implementación de megaproyectos de comunicación y aplicación de
diseños bidimensionales y tridimensionales interactivos de gran impacto.
Mención de Honor como instructor del Ejército.
Dairo Osorio, nació en Ibagué Tolima,
Colombia, el 12 de Marzo de 1993. Estudiante
de Ingeniería de Sistemas de la Universidad
Cooperativa de Colombia sede Ibagué.
Desde el año 2011 hace parte del
grupo de Investigación GRUCEDI (Grupo
Cooperativo en Experiencias Didácticas)
en donde se tiene como tema de interés e
investigación, el desarrollo de herramientas
y estrategias didácticas para la enseñanza de
la física.
Sonia López Ríos, nació en Caramanta,
Antioquia, Colombia, el 13 de agosto
de 1977; se graduó como Licenciada en
Matemáticas y Física en la Universidad de
Antioquia en 2001 y Magíster en Educación
de la misma Universidad en 2005. Doctora en
Enseñanza de las Ciencias de la Universidad
de Burgos en 2012. Se ha desempeñado
como profesora de la Facultad de Educación
de la Universidad de Antioquia desde el
año 2006 y entre sus campos de interés
se encuentra la modelación y simulación
computacional en la enseñanza de la física.
Cesar Eduardo Mora Ley, nació en
Guadalajara Jalisco, México el 9 de Marzo
de 1965. Licenciado en Física, en Enseñanza
de las matemáticas, Facultad de ciencias
Físico-Matemáticas, de la Universidad de
Guadalajara, 1991. Maestría en Ciencias
especialidad Física, Departamento de Física
del CINVESTAV del IPN México, 1994.
Doctor en Ciencias especialidad Física,
Universidad
Autónoma
Metropolitana
Iztapalapa, 2001.
Se ha desempeñado como profesor de
Matemáticas y Física desde 1994, Profesor Titular, CICATA-Legaria del
IPN, desde 2005 hasta la fecha. Subdirector Académico del Cicata-Legaria,
Entre sus campos de interés está la Relatividad general y la Mecánica
Cuántica y la enseñanza de la Física en general, actualmente es coordinador
de Postgrado en Física Educativa del CICATA-Legaria del IPN.
Roland Márquez, nació en Ibagué
Tolima, Colombia, el 8 de Mayo de 1991.
Estudiante de Ingeniería de Sistemas de la
Universidad Cooperativa de Colombia sede
Ibagué. Desde el año 2012 hace parte del
grupo de Investigación GRUCEDI (Grupo
Cooperativo en Experiencias Didácticas)
en donde se tiene como tema de interés e
investigación, el desarrollo de herramientas
y estrategias didácticas para la enseñanza de
la física.
Universidad Católica de Pereira
40
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 40-49
Análisis y clasificación de atributos de mantenibilidad del software:
una revisión comparativa desde el estado del arte1
Analysis and classification of software maintainability attributes: a
comparative review from the state of the art
Análise e classificação de atributos de manutenção do software:
uma revisão comparativa desde o estado da arte
J.D. Erazo, A.S. Florez y F.J. Pino
Recibido Septiembre 08 de 2015 – Aceptado Febrero 19 de 2016
Resumen-- Actualmente el mantenimiento de software es la
etapa más costosa del ciclo de vida de dicho producto. Identificar
los atributos que influyen sobre la mantenibilidad de software
es un aspecto importante para conocer qué factores se podrían
incluir durante el proceso de desarrollo con el fin de conseguir
un producto altamente mantenible. En este sentido, el presente
artículo ofrece una vista integral de diferentes atributos de
mantenibilidad obtenidos a partir de la literatura y propone
una clasificación de los mismos teniendo en cuenta: (i) las subcaracterísticas de mantenibilidad de ISO/IEC 25010 sobre las
que influye, y (ii) el flujo de trabajo del desarrollo de software
de RUP (Rational Unified Process) en los que se presenta. Como
resultado de la investigación realizada se obtuvieron un total de
18 atributos clasificados de acuerdo a los criterios mencionados
anteriormente, los cuales describen diferentes aspectos que se
deben considerar cuando se pretende desarrollar un producto
altamente mantenible. Los atributos de mantenibilidad y su
clasificación, obtenidos en esta investigación han sido utilizados
1
Producto derivado del proyecto de grado en la modalidad de
investigación “Modelo de referencia para la inclusión de sub-características
de mantenibilidad al producto software durante el proceso de desarrollo”.
Trabajo adscrito al Grupo de Investigación y Desarrollo en Ingeniería de
Software de la Facultad de Ingeniería Electrónica y Telecomunicaciones de
la Universidad del Cauca en Popayán – Cauca (Colombia).
J.D. Erazo es Ingeniera de Sistemas de la Universidad del Cauca,
Popayán - Cauca (Colombia); e-mail: [email protected]
A.S. Florez es Ingeniero de Sistemas de la Universidad del Cauca,
Popayán - Cauca (Colombia); e-mail: [email protected]
F.J. Pino es profesor titular en la facultad de Ingeniería Electrónica
y Telecomunicaciones de la Universidad del Cauca, Popayán - Cauca
(Colombia); e-mail: [email protected]
Entre Ciencia e Ingeniería
en la realización de un modelo de referencia de procesos que
apoya la inclusión de sub-características de mantenibilidad al
producto software durante el proceso de desarrollo.
Palabras clave----atributos de mantenibilidad, mantenibilidad
de software, sub-características de mantenibilidad.
Abstract--- Nowadays software maintenance is the most
expensive stage in the life cycle of a software product. Identifying
the attributes that influence software maintainability is an
important aspect that will be useful when knowing the factors
to be included during the development process in order to
achieve a highly maintainable product. In this sense, this
paper provides a comprehensive overview of the different
maintainability attributes based on the literature, and proposes
their classification taking into account the following items:
(i) the maintainability sub-characteristics from the ISO/
IEC 25010 standard influenced by it, and (ii) the software
development workflow of RUP (Rational Unified Process) in
which it is presented. As a result of this research, a total of 18
attributes were obtained and classified, based on the criteria
previously mentioned, which describe the different aspects to
be considered when trying to develop a highly maintainable
product. The maintainability attributes and the classification
obtained in this research have been used to create a process
reference model which supports the inclusion of maintainability
sub-characteristics to the product during the software
development process.
Key
words----maintainability
attributes,
software
maintainability, maintainability sub-characteristics.
41
Resumo – Atualmente a manutenção de software é a
etapa mais custosa do ciclo de vida do produto. Identificar os
atributos influencia a capacidade de manutenção de software
é um aspecto importante para conhecer que o fator poderia
incluir durante o processo de desenvolvimento com o fim de
conseguir um produto altamente manutenível. Nesse sentido,
o presente artigo oferece uma vista integral de diferentes
atributos de manutenção obtida as partir da literatura e propõe
uma classificação dos mesmos tendo em conta: (i)as subcaracterísticas de manutenção de ISSO/IEC 25010 sobre as que
influem e (ii) o fluxo de trabalho do desenvolvimento de software
de RUP (Rational Unified Process) nos que se apresenta. Como
resultado da investigação realizada se obteve um total de 18
atributos classificados de acordo aos critérios mencionados
anteriormente, os quais descrevem diferentes aspectos que
devem considerar quando se pretende desenvolver um produto
altamente manutenível. Os atributos de manutenção e sua
classificação, obtidos nessa investigação foram utilizados na
realização de um modelo de referência de processos que apoiam
a inclusão das sub-características de manutenção do produto
software durante o processo de desenvolvimento.
Palavras chave: atributos de manutenção, manutenção de
software, sub- características de manutenção.
I. Introducción
L
a mantenibilidad es uno de los atributos de calidad
esenciales, ya que las tareas de mantenimiento
consumen una gran proporción del esfuerzo total gastado
en el ciclo de vida del software [1]. El costo de esta etapa
consume entre el 50% y el 80% de los recursos del proyecto
[2] y el 66% de los costos del ciclo de vida del software son
invertidos en el mantenimiento del producto [3]. Además, el
61% del tiempo que dedican los programadores al desarrollo
es invertido en la etapa de mantenimiento, y sólo el 39% es
empleado en nuevos desarrollos [4]. Lo anterior refleja que
la etapa de mantenimiento: (1) requiere el mayor porcentaje
de los costos del ciclo de vida del software, (2) incrementa el
esfuerzo realizado, (3) impide que una gran parte del tiempo
sea utilizado para nuevos desarrollos.
Dado que la etapa de mantenimiento genera altos costos
durante el ciclo de vida del desarrollo de software, para
facilitar su ejecución es conveniente tener en cuenta la
característica de mantenibilidad de software. ISO/IEC 25010
[5] define la mantenibilidad como el grado de efectividad
o eficiencia con la que un producto o sistema puede ser
modificado. La mantenibilidad de software se descompone
en una serie de atributos que pueden ser considerados durante
diferentes etapas del proceso de desarrollo. ISO/IEC 25010
define atributo como propiedad inherente o característica
de una entidad que puede ser distinguida cualitativa o
cuantitativamente por medios humanos o automatizados.
Estudios previos han demostrado que una de las causas
de los problemas en el mantenimiento del software es
que a menudo, la mantenibilidad no es una consideración
importante durante las etapas de diseño e implementación
de software [3]. Realizar más esfuerzo durante el ciclo de
vida de desarrollo para hacer que el software sea mantenible
puede reducir significativamente el total de los costos del
software [6]. Por esto, es importante conocer los atributos
de software que afectan a la mantenibilidad y relacionarlos
con la(s) etapa(s) del proceso de desarrollo mediante la(s)
cual(es) dichos atributos pueden ser incorporados en el
producto software. De esta forma se podría lograr incluir las
sub-características de mantenibilidad al producto software
para conseguir un producto altamente mantenible. Esto
apoyaría a reducir el esfuerzo de mantenimiento, lo que
permitiría usar estos mismos recursos para realizar más
cambios o lograr los mismos cambios con menos recursos
[7].
En este sentido, el resultado principal de este artículo
es ofrecer una vista integral de diferentes atributos de
mantenibilidad obtenidos a partir de la literatura y una
clasificación de los mismos teniendo en cuenta: (i) las subcaracterísticas de mantenibilidad de ISO/IEC 25010 sobre
las que influye: capacidad para ser analizado, modularidad,
capacidad para ser modificado, reusabilidad y capacidad
para ser probado; y (ii) el flujo de trabajo del desarrollo de
software de RUP (Rational Unified Process) en los que se
presenta: Modelo de Negocio, requisitos, análisis y diseño,
implementación, pruebas y despliegue. El objetivo es ofrecer
a las entidades desarrolladoras de software los aspectos
básicos que se deben tener en cuenta durante el proceso de
desarrollo de software para incrementar la mantenibilidad
del producto software. Este trabajo ha sido utilizado como
base para la construcción de un modelo de referencia de
procesos (MANTuS) que pretende apoyar la inclusión de
sub-características de mantenibilidad al producto software
durante el proceso de desarrollo.
Además de la presente introducción, este artículo muestra
en la sección 2 la estrategia de investigación utilizada
para la clasificación de los atributos de mantenibilidad y
los trabajos relacionados, en la sección 3 la unificación de
conceptos relacionados con mantenibilidad, en la sección 4
la clasificación de atributos realizada, la sección 5 una vista
general del Modelo de referencia de procesos y finalmente
en la sección 6 conclusiones y trabajo futuro.
II. Antecedentes
A.
Estrategia de investigación
Para identificar los atributos software que influyen en la
mantenibilidad del producto, se realizó una búsqueda en la
literatura consultando bases de datos electrónicas, primero
se seleccionaron las bases de datos para cumplir con los
objetivos de la búsqueda acerca de la mantenibilidad de
software. La biblioteca digital utilizada para realizar la
investigación fue Google Scholar. Para realizar la búsqueda
automática en la biblioteca digital seleccionada, se utilizó
la cadena de búsqueda “software maintainability” AND
“attribute”. La cadena contiene dos partes que incluyen
Universidad Católica de Pereira
42
los conceptos necesarios para tener un gran alcance en la
investigación acerca de los atributos de mantenibilidad
del producto software. La primera parte está relacionada
con los estudios que hacen referencia a la mantenibilidad
del producto software, la segunda parte corresponde a
las investigaciones que realizan estudios de atributos de
mantenibilidad. Como resultado de esta búsqueda, se
obtuvieron inicialmente diferentes factores, algunos de ellos
mencionados en varios estudios, por lo que fue necesario
asociar los conceptos encontrados para obtener un único
concepto. Se encontraron 61 aspectos (factores, métricas,
atributos) que influyen sobre esta característica. Después
de realizar un análisis de la definición de estos aspectos, se
observó que algunos de ellos no eran atributos de producto
y otros estaban definidos como métricas, por lo cual no se
tienen en cuenta en esta investigación. Por lo anterior, en
total se encontraron 18 atributos software que se consideran
en la clasificación final realizada.
Posteriormente, estos atributos fueron clasificados
teniendo en cuenta dos aspectos: las sub-características de
mantenibilidad sobre las que influyen y los flujos de trabajo
en los que se presenta. Para clasificarlas en cada una de las
sub-características de mantenibilidad se realizó un análisis
semántico teniendo en cuenta las definiciones tanto de
los atributos encontrados como de las sub-características
definidas en la norma ISO/IEC 25010 (modularidad,
reusabilidad, capacidad para ser analizado, capacidad para
ser modificado y capacidad para ser probado). Además,
para clasificar estos atributos en la etapa de desarrollo en
la que se presentan, se tuvieron en cuenta los flujos de
trabajo definidos en RUP: Modelo de Negocio, requisitos,
análisis y diseño, implementación, pruebas y despliegue.
Para tener un criterio de clasificación se buscaron estudios
donde se evidencia la relación entre el atributo con la subcaracterística de mantenibilidad y el flujo de trabajo al que
ha sido asignado.
B. Trabajos relacionados
Algunos trabajos relacionados con la descripción de
atributos de mantenibilidad que son relevantes en la literatura
se presentan a continuación:
• Factores claves que afectan la mantenibilidad de
software. Kumar [6] afirma que la mantenibilidad de un
producto software es afectada por principios de diseño
y arquitectura, describe varios factores propuestos por
diferentes investigadores en modelos de mantenibilidad
de software, los cuales son de gran importancia en las
evaluaciones de mantenibilidad. Entre estos factores se
destacan: la estabilidad, facilidad de cambio, facilidad
de análisis y facilidad de prueba, establecidos por la
norma ISO 9126, y además de esto Kumar describe
otros factores planteados por diferentes autores en [810], como: modularidad, documentación, facilidad
de lectura, consistencia, simplicidad, capacidad de
expansión, instrumentación, estandarización, lenguaje
Entre Ciencia e Ingeniería
de programación, nivel de validación y pruebas,
complejidad,
trazabilidad,
algunas
propiedades
estructurales o de código y habilidades de equipo de
mantenimiento. Anda [8] realiza un estudio empírico
a partir del cual define diversos factores que afectan
la mantenibilidad del software, entre los cuales se
encuentran: elección de clases y nombre, diseño, patrones
de diseño, arquitectura, componente, encapsulamiento,
herencia, librerías, simplicidad, comentarios y plataforma
técnica. Los factores mencionados en estos estudios
son de vital importancia para esta investigación, ya que
permiten conocer los aspectos primordiales que debe
tener un producto software para lograr un alto nivel de
mantenibilidad.
• Impacto de atributos internos del producto software
sobre la mantenibilidad. Kozlov et. al. [11] evalúan el
impacto que tienen algunos atributos internos del producto
software sobre la característica de mantenibilidad,
obteniendo como resultado que el número de líneas
de comentario y número de módulos influyen sobre la
misma y además se encuentran otros factores que influyen
negativamente sobre esta, tales como: número de líneas
de código, tipos de datos globales y locales, número total
de ítems de entrada y salida, y complejidad de interfaz
de los métodos de clase. El conocimiento acerca de la
influencia que tienen estos atributos de calidad internos
sobre la mantenibilidad puede ser utilizado a favor
durante el proceso de desarrollo. Estos resultados sirven
como base para mejorar la mantenibilidad de software en
etapas tempranas del proceso de desarrollo de software,
lo cual presenta un gran aporte para esta investigación.
• Modelo de atributos de mantenibilidad de software.
Hashim y Key [9] proponen un modelo que resalta la
necesidad de mejorar la calidad del producto software de
tal forma que el mantenimiento sea eficiente. En el artículo
se destacan problemas asociados con el mantenimiento
los cuales se relacionan con las deficiencias de la forma
en la que los sistemas son desarrollados, tales como: falta
de trazabilidad, falta de documentación, mal diseño e
implementación, herramientas de desarrollo y técnicas
y lenguajes de programación inapropiados. Además
se presentan algunos atributos de mantenibilidad, que
coinciden con los expuestos en [6]. El principal aporte de
este estudio es que expone los problemas más importantes
asociados al mantenimiento, los cuales deben ser tenidos
en cuenta en esta investigación para buscar soluciones y
así aumentar la facilidad de mantenimiento del producto
software.
Aunque se puede ver que hay algunos trabajos
relacionados con atributos de mantenibilidad de software,
no se han encontrado estudios que realicen una clasificación
de los mismos de acuerdo a las sub-características de
mantenibilidad y el flujo de trabajo, el cual es el principal
objetivo de esta investigación.
43
Tabla I.
Definición unificada de los atributos de mantenibilidad identificados.
Universidad Católica de Pereira
44
III. Unificación de conceptos de atributos de
mantenibilidad
En los estudios revisados, que se encuentran referenciados
en la tercera columna de la Tabla I, se halló que algunos de
ellos presentaban atributos de mantenibilidad similares,
aunque no coincidían totalmente en el nombre o definición
de los mismos, por lo que fue necesario estructurar un
único concepto para cada atributo. Para la unificación de
los conceptos se analizaron las definiciones de cada atributo
expuestas en los artículos y posteriormente se tuvo en cuenta
lo más relevante de cada uno de ellos, logrando así agruparlos
en un único concepto. Como resultado de este análisis se
obtuvieron 18 atributos con su respectiva definición, los
cuales se presentan en la Tabla I. Incluir estos atributos al
producto durante el proceso de desarrollo permite potenciar
las sub-característica de mantenibilidad de dicho producto
y mejorar las medidas de las métricas asociadas a las subcaracterísticas.
IV. Clasificación de atributos por sub-características
Y flujos de trabajo.
Los atributos identificados anteriormente se clasificaron
de acuerdo a dos aspectos: sub-características de
mantenibilidad sobre las que influye y los flujos de trabajo
en los que se presenta.
Para realizar la clasificación por sub-caracteristicas de
mantenibilidad fue necesario hacer una comparación entre
las sub-características de mantenibilidad presentadas por
las normas ISO/IEC 9126-1 [22] e ISO/IEC 25010 [5].
La mantenibilidad de software presenta diferentes subcaracterísticas, de acuerdo a la norma ISO/IEC 9126-1
esta se divide en cinco sub-características: capacidad para
ser analizado (Analysability), capacidad para ser cambiado
(Changeability), estabilidad (Stability), capacidad para ser
probado (Testability) y cumplimiento de la mantenibilidad
(Compliance). Por otra parte la norma ISO/IEC 25010 divide
la mantenibilidad en cinco características: modularidad
(Modularity), reusabilidad (Reusability), capacidad para ser
analizado (Analysability), capacidad para ser modificado
(Modifiability) y capacidad para ser probado (Testability).
Debido a que la norma ISO/IEC 25010 se deriva de la
ISO/IEC 9126, al realizar la comparación entre las subcaracterísticas definidas por estas dos normas se encuentra
que la capacidad para ser analizado y la capacidad para ser
probado se presentan en las dos normas. Además la subcaracterística capacidad para ser modificado presentada en
ISO/IEC 25010 es la combinación de las sub-características
capacidad para ser cambiado y estabilidad, presentadas
en la norma ISO/IEC 9126-1. Por último, la norma ISO /
IEC 25010 incluye dos nuevas sub-características a la
mantenibilidad: modularidad y reusabilidad. Es por esto que
las sub-características que se tuvieron en cuenta para realizar
la clasificación de los atributos son las definidas en la norma
ISO/IEC 25010.
Entre Ciencia e Ingeniería
Con el fin de clasificar estos atributos en cada una de las
sub-características de mantenibilidad se realizó un análisis
semántico teniendo en cuenta las definiciones tanto de
los atributos encontrados como de las sub-características
definidas en la norma ISO/IEC 25010. Además, para
clasificar estos atributos en la etapa de desarrollo en la que
se presentan, se tuvieron en cuenta los flujos de trabajo
definidos en RUP: Modelo de Negocio, requisitos, análisis
y diseño, implementación, pruebas y despliegue. Los
resultados obtenidos se presentan en la Tabla II.
Para tener un criterio de clasificación se buscaron estudios
donde se evidencia la relación entre el atributo con la subcaracterística de mantenibilidad y el flujo de trabajo al
que ha sido asignado. Debido a que la relación de algunos
atributos con las sub-características de mantenibilidad no
fue encontrada en la literatura revisada, para estos casos se
hizo un análisis por parte de los investigadores basándose
en las definiciones tanto de los atributos como de las subcaracterísticas. A continuación se presenta como ejemplo
el análisis realizado para algunos atributos (acoplamiento,
cohesión, documentación, estandarización y trazabilidad).
El análisis de los demás atributos de mantenibilidad se
encuentra en [23].
Acoplamiento: En [24] se afirma que el acoplamiento
en los sistemas software tiene un fuerte impacto negativo
en la calidad de software y por lo tanto se debe mantener
al mínimo durante la etapa de diseño. En [25] el autor se
refiere al acoplamiento como propiedad de diseño. En
[26] el autor se refiere al acoplamiento como un concepto
integral de diseño. En [27] se indica que el acoplamiento
ha sido identificado como uno de las propiedades básicas de
la calidad del diseño del software. En [28] se afirma que el
acoplamiento es un factor de calidad muy importante para el
diseño y la implementación orientada a objetos. En [29] se
evidencia que el acoplamiento debe ser considerado durante
el diseño, porque se afirma que es una de las características
importantes que brinda eficiencia al diseño en la orientación
a objetos. En este estudio también se indica que al aumentar
el acoplamiento también aumenta la complejidad del
diseño, lo que hace que se necesite mayor esfuerzo para
realizar las pruebas reduciendo así la capacidad para ser
probado del diseño, lo cual demuestra que hay relación
entre el acoplamiento y esta sub-característica. En [30] se
demuestra que existe relación entre el acoplamiento con la
capacidad para ser analizado y la reusabilidad del software,
porque se dice que un bajo acoplamiento mejora estas dos
sub-características. En [31] se afirma que el acoplamiento
excesivo entre las clases de un sistema afecta la modularidad
del mismo y también que la medida del acoplamiento es un
buen indicador de la capacidad para ser probado. En [32]
se realiza un estudio donde se concluye que la métrica de
acoplamiento entre objetos presenta correlación con la
sub-característica de mantenibilidad capacidad para ser
modificado. En [33, 34] se muestra que el acoplamiento se
relaciona con la capacidad para ser modificado, la capacidad
para ser probado y la reusabilidad del sistema, ya que se
45
dice que cuando el acoplamiento aumenta la reusabilidad
disminuye y se hace más difícil modificar y probar el sistema.
del mismo y con esto la capacidad para ser analizado y
modificado.
Cohesión: En [29] se afirma que la cohesión es una
característica importante que ayuda a la eficiencia del diseño.
En [25] el autor se refiere a la cohesión como propiedad
de diseño. En [35] el autor habla de la cohesión como un
atributo de diseño más que de código y un atributo que puede
ser usado para predecir las propiedades de implementación
como “facilidad de depuración, facilidad de mantenimiento
y facilidad de modificación”. En [36] se dice que la cohesión
es una de las propiedades de diseño más importantes. En
[26] se argumenta que en el diseño orientado a objetos la
cohesión en un gran beneficio, además el autor se refiere a
la cohesión como un concepto integral de diseño. En [27] se
indica que la cohesión ha sido identificada como uno de las
propiedades básicas de la calidad del diseño del software. En
[28] se afirma que la cohesión es un factor de calidad muy
importante para el diseño y la implementación orientada a
objetos. En [30] se afirma que una alta cohesión aumenta la
capacidad para ser modificado y la modularidad del sistema.
En el estudio [32] se concluye que la métrica falta de cohesión
en métodos presenta correlación con la sub-característica de
mantenibilidad capacidad para ser modificado. En [31, 37]
se evidencia que la cohesión influye en la reusabilidad, ya
que se dice que cuando hay alta cohesión los componentes
tienden a tener alta mantenibilidad y reusabilidad. En [38] se
afirma que cuanto menor es la cantidad de acoplamiento y la
complejidad de los componentes y más alta sea la cohesión
más fácil será la capacidad para ser analizado, la estabilidad
y la capacidad para ser probado del producto software. En
[39] indican que se ha demostrado que las métricas de la
cohesión son buenos predictores de la capacidad para ser
probado, al encontrar una correlación clara entre ellas.
Facilidad de lectura: en [43] se afirma que debido a que
la facilidad de lectura puede afectar la calidad del software,
los programadores deben preocuparse por ella. En [44] se
dice que se debe inspeccionar la facilidad de lectura del
código fuente para asegurar la mantenibilidad, portabilidad
y reusabilidad del software. En [45] se enuncia que la
facilidad de lectura afecta la capacidad para ser analizado
del software, ya que simplifica el trabajo de identificar las
modificaciones que se requieren hacer al sistema. En [46] se
expone que la facilidad de lectura mejora la facilidad para
ser entendido de un componente, lo cual mejora la capacidad
para ser analizado y también la capacidad para ser cambiado
del mismo.
Documentación: en [40] se afirma que los documentos
de diseño son una fuente de información importante,
especialmente cuando los sistemas entran en la fase de
mantenimiento. En [41] se dice que las metodologías típicas
del desarrollo orientado a objetos requieren que se documente
el análisis, el diseño arquitectural o a alto nivel y el diseño
a bajo nivel. En [3] se dice que en la industria del software
es necesario mantener una trazabilidad bidireccional
durante todo el ciclo de vida de los sistemas software
y también se afirma que es un aspecto importante para la
facilidad de entendimiento y capacidad de ser modificado
del software. En [30] se indica que la documentación
contribuye a capacidad para ser analizado, la capacidad
para ser modificado y la reusabilidad del software. En [42]
se dice que la documentación es un factor importante para
la sub-característica capacidad para ser probado ya que en
las pruebas es importante tener documentación clara de los
requerimientos y especificaciones.
Trazabilidad: en [47, 48] se define la trazabilidad
como una característica que se debe tener en cuenta en
la especificación de los requisitos del software e indican
que esta área permanece como un problema ampliamente
reportado debido a que no hay un análisis de las fuentes de
requerimientos utilizadas en los desarrollos de software. En
[49] se afirma que en el proceso de desarrollo de software,
la trazabilidad y evolución de los requisitos es uno de los
factores más relevantes para lograr software fiable y exacto.
En [40] se señala que un diseño es considerado de mayor
calidad siempre que se mantenga la trazabilidad con el
código. Como el diseño representa una abstracción de la
implementación, se espera que las clases en el diseño estén
representadas en el código. En [50] se indica que los vacíos en
la trazabilidad, como características de información ausentes
reducen la capacidad para ser modificado y la variabilidad
de los componentes. Además de esto en el estudio se
encuentra que varias características como la capacidad para
ser analizado dependen de la trazabilidad de artefactos para
análisis de impacto o comprensión del programa.
A continuación se presenta la Tabla II donde se encuentra
la síntesis del análisis y clasificación realizados de los
atributos de mantenibilidad. Esta tabla contiene el nombre
de los atributos de mantenibilidad, la fuente de donde se
obtuvieron, las cinco sub-características definidas por la
norma ISO/IEC 25010 [5] con las que se relacionan, que
se pueden identificar con (+) el cual indica que la relación
está justificada por la literatura y con (-) el cual indica que
la relación es justificada por un análisis realizado por los
investigadores basándose en las definiciones tanto de los
atributos como de las sub-características y por último los
nombres de los flujos de trabajo definido por RUP en los que
se presenta.
Estandarización: ya que este atributo implica tener
un conjunto de estándares de programación definidos se
evidencia que es importante considerarlo durante la etapa
de implementación, además este puede mejorar la facilidad
de lectura del código fuente, la facilidad de entendimiento
Universidad Católica de Pereira
46
Tabla II
Clasificación de los atributos por sub-características de mantenibilidad y flujos de trabajo
Entre Ciencia e Ingeniería
47
V. Modelo de referencia mantus
El trabajo realizado previamente ha sido la base para la
creación de un modelo de referencia de procesos denominado
MANTuS, el cual pretende especificar, en términos de sus
propósitos y sus resultados, un conjunto de procesos que
permitan incluir atributos de mantenibilidad al producto
software con el fin de potenciar esta característica y que sean
aplicables en el contexto de empresas desarrolladoras de
software. Debido a restricciones de espacio, a continuación
se presenta una vista general de este modelo de referencia.
El modelo completo y en detalle se puede encontrar en [23].
El Modelo de Referencia MANTuS asume que la
mantenibilidad de software es un aspecto fundamental
del producto que debe ser considerado desde el inicio del
ciclo de vida del mismo. Es por esto que se establecen los
siguientes seis procesos (ver Fig. 1): Análisis de requisitos
de software desde la perspectiva de mantenibilidad,
diseño arquitectural de software desde la perspectiva de
mantenibilidad, Diseño detallado de software desde la
perspectiva de mantenibilidad, Construcción de software
desde la perspectiva de mantenibilidad, Pruebas de evaluación
de software desde la perspectiva de mantenibilidad, Gestión
de la documentación desde la perspectiva de mantenibilidad.
En la Fig. 1 se presenta la vista general de los procesos que
conforman el modelo de referencia, se observa que estos
procesos son independientes y que el proceso de gestión de
la documentación desde la perspectiva de mantenibilidad es
transversal a los otros, ya que éste es un proceso de soporte
que puede ser ejecutado durante los otros cinco procesos. La
vista general del modelo de referencia combina y sintetiza
las prácticas base definidas en los procesos de todas las subcaracterísticas de mantenibilidad.
Vi. Conclusiones y trabajo futuro
En este estudio se han identificado un total de 18 atributos
que se involucran en la mantenibilidad del software,
los cuales han sido clasificados de acuerdo a las subcaracterísticas de mantenibilidad sobre las que influyen y el
flujo de trabajo en los que se presenta. Esto con el fin de
facilitar la identificación de los factores que se deben incluir
en el producto software durante el proceso de desarrollo para
conseguir un producto con alta mantenibilidad. Además de
esto, de acuerdo a la clasificación obtenida se observa que la
mayoría de los atributos identificados se presentan durante
el flujo de trabajo: Análisis y diseño. También se observó
que los atributos que influyen sobre el mayor número de
sub-características de mantenibilidad son: acoplamiento,
cohesión, complejidad, documentación, encapsulamiento,
facilidad de entendimiento, herencia, simplicidad y tamaño.
De igual forma, se puede notar que los atributos consistencia,
documentación y trazabilidad se presentan en todos los flujos
de trabajo, por lo cual deben ser considerados durante todo el
proceso de desarrollo.
Teniendo en cuenta la clasificación de atributos de
mantenibilidad presentada en este artículo, se construyó el
Modelo de Referencia MANTuS el cual presenta procesos
generales donde se agrupan todas las prácticas base definidas
para cada una de las sub-características de mantenibilidad.
Con este modelo de referencia se podrían disminuir los
costos de mantenimiento durante el proceso de desarrollo y
además las empresas podrían utilizarlo con el fin de obtener
la certificación en mantenibilidad realizado por AQC Lab
[51].
Agradecimientos
Los autores agradecen al Programa de Ingeniería de Sistemas
de la Universidad del Cauca. Francisco J. Pino agradece a la
Universidad del Cauca donde trabaja como profesor titular.
Referencias
[1] J. M. Conejero, E. Figueiredo, A. Garcia, J. Hernández, and E.
Jurado, “On the relationship of concern metrics and requirements
maintainability,” Information and Software Technology, vol. 54, pp.
212-238, 2012.
[2] C. E. H. Chua, S. Purao, and V. C. Storey, “Developing maintainable
software: The Readable approach,” Decision Support Systems, vol.
42, pp. 469-491, 2006.
[3] J.-C. Chen and S.-J. Huang, “An empirical analysis of the impact of
Fig. 1. Vista general del modelo de referencia (ARS= Análisis de requisitos de software, DAS= diseño arquitectural de software, DDS= diseño detallado de
software, CS= construcción de software, PES= pruebas de evaluación de software)
Universidad Católica de Pereira
48
software development problem factors on software maintainability,”
Journal of Systems and Software, vol. 82, pp. 981-992, 2009.
[4] F. J. Pino, F. Ruiz, F. García, and M. Piattini, “A software maintenance
methodology for small organizations: Agile MANTEMA,” Journal
Of Software Maintenance And Evolution: Research And Practice, vol.
24, pp. 851-876, 2011.
[5] I. S. Organization, “ISO/IEC 25010,” in Systems and software
engineering - Systems and software Quality Requirements and
Evaluation (SQuaRE) - System and Software Quality Models, ed,
2011.
[6] B. Kumar, “A survey of key factors affecting software maintainability,”
in 2012 International Conference on Computing Sciences, 2012, pp.
261-266.
[7] E. B. Swanson, “IS “maintainability”: should it reduce the maintenance
effort?,” ACM SIGMIS Database, vol. 30, pp. 65-76, 1999.
[8] B. Anda, “Assessing software system maintainability using structural
measures and expert assessments,” in Software Maintenance, 2007.
ICSM 2007. IEEE International Conference on, 2007, pp. 204-213.
[9] K. Hashim and E. Key, “A software maintainability attributes model,”
Malaysian Journal of Computer Science, vol. 9, pp. 92-97, 1996.
[10] K. Aggarwal, Y. Singh, P. Chandra, and M. Puri, “Measurement of
software maintainability using a fuzzy model,” Journal of Computer
Science, vol. 1, p. 538, 2005.
[11] D. Kozlov, J. Koskinen, M. Sakkinen, and J. Markkula, “Assessing
maintainability change over multiple software releases,” Journal of
Software Maintenance and Evolution, vol. 20, pp. 31-58, 2008.
[12] A. Yamashita and L. Moonen, “Do code smells reflect important
maintainability aspects?,” in Software Maintenance (ICSM), 2012
28th IEEE International Conference on, 2012, pp. 306-315.
[13] M. Perepletchikov, C. Ryan, K. Frampton, and Z. Tari, “Coupling
metrics for predicting maintainability in service-oriented designs,” in
Proceedings of the 2007 Australian Software Engineering Conference
(ASWEC‘07), 2007, pp. 329-338.
[14] R. Baggen, J. P. Correia, K. Schill, and J. Visser, “Standardized
code quality benchmarking for improving software maintainability,”
Software Quality Journal, vol. 20, pp. 287-307, 2012.
[15] S. C. Misra, “Modeling design/coding factors that drive maintainability
of software systems,” Software Quality Journal, vol. 13, pp. 297-320,
2005.
[16] P. Oman and J. Hagemeister, “Metrics for assessing a software system’s
maintainability,” in Software Maintenance, 1992. Proceerdings.,
Conference on, 1992, pp. 337-344.
[17] W. Hordijk and R. Wieringa, “Surveying the factors that influence
maintainability: research design,” in ACM SIGSOFT Software
Engineering Notes, 2005, pp. 385-388.
[18] M. Riaz, E. Mendes, and E. Tempero, “A systematic review of software
maintainability prediction and metrics,” in Proceedings of the 2009
3rd International Symposium on Empirical Software Engineering and
Measurement, 2009, pp. 367-377.
[19] I. Heitlager, T. Kuipers, and J. Visser, “A practical model for measuring
maintainability,” in Proceedings of the 6th International Conference
on Quality of Information and Communications Technology, 2007, pp.
30-39.
[20] K. D. Welker, “The software maintainability index revisited,”
CrossTalk, pp. 18-21, 2001.
[21] K. K. Aggarwal, Y. Singh, and J. K. Chhabra, “An integrated measure
of software maintainability,” in Reliability and maintainability
symposium, 2002. Proceedings. Annual, 2002, pp. 235-241.
[22] I. S. Organization, “ISO/IEC 9126-1,” in Software Engineering –
Product Quality – Part 1: Quality Model, ed, 2001.
[23] “Modelo de referencia para la inclusión de sub-características de
mantenibilidad al producto software durante el proceso de desarrollo,”
Pregrado, Ingenieria de sistemas, Universidad del Cauca, Popayán,
2014.
[24] F. Brito e Abreu and W. Melo, “Evaluating the impact of objectoriented design on software quality,” in Software Metrics Symposium,
1996., Proceedings of the 3rd International, 1996, pp. 90-99.
[25] M. Sefika, A. Sane, and R. H. Campbell, “Monitoring compliance of a
software system with its high-level design models,” in Proceedings of
the 18th international conference on Software engineering, 1996, pp.
387-396.
[26] R. Subramanyam and M. S. Krishnan, “Empirical analysis of ck
Entre Ciencia e Ingeniería
metrics for object-oriented design complexity: Implications for
software defects,” Software Engineering, IEEE Transactions on, vol.
29, pp. 297-310, 2003.
[27] E. Capra, C. Francalanci, and F. Merlo, “An empirical study on the
relationship between software design quality, development effort and
governance in open source projects,” Software Engineering, IEEE
Transactions on, vol. 34, pp. 765-782, 2008.
[28] L. Etzkorn and H. Delugach, “Towards a semantic metrics suite for
object-oriented design,” in Technology of Object-Oriented Languages
and Systems, 2000. TOOLS 34. Proceedings. 34th International
Conference on, 2000, pp. 71-80.
[29] S. Khalid, S. Zehra, and F. Arif, “Analysis of object oriented
complexity and testability using object oriented design metrics,” in
Proceedings of the 2010 National Software Engineering Conference,
2010, p. 4.
[30] F. Zhang, A. Mockus, Y. Zou, F. Khomh, and A. E. Hassan, “How does
Context Affect the Distribution of Software Maintainability Metrics?,”
in Software Maintenance (ICSM), 2013 29th IEEE International
Conference on, 2013, pp. 350-359.
[31] M. Badri, L. Badri, and F. Touré, “Empirical Analysis of ObjectOriented Design Metrics: Towards a New Metric Using Control Flow
Paths and Probabilities,” Journal of Object Technology, vol. 8, pp.
123-142, 2009.
[32]M. Ajrnal Chaumun, H. Kabaili, R. K. Keller, F. Lustman, and
G. Saint-Denis, “Design properties and object-oriented software
changeability,” in Software Maintenance and Reengineering, 2000.
Proceedings of the Fourth European, 2000, pp. 45-54.
[33] P. S. Sandhu and H. Singh, “A Reusability Evaluation Model for OOBased Software Components,” International Journal of Computer
Science, vol. 1, pp. 259-264, 2006.
[34] P. S. Sandhu, P. Blecharz, and H. Singh, “A Taguchi approach to
investigate impact of factors for reusability of software components,”
Transactions on Engineering, Computing and Technology, vol. 19, pp.
135-140, 2007.
[35] J. M. Bieman and B.-K. Kang, “Measuring design-level cohesion,”
Software Engineering, IEEE Transactions on, vol. 24, pp. 111-124,
1998.
[36] H. Kabaili, R. K. Keller, and F. Lustman, “Cohesion as changeability
indicator in object-oriented systems,” in Software Maintenance and
Reengineering, 2001. Fifth European Conference on, 2001, pp. 39-46.
[37] K. Sirbi and P. J. Kulkarni, “Impact of Aspect Oriented Programming
on Software Development Quality Metrics,” Global Journal of
Computer Science and Technology, vol. 10, 2010.
[38] G. Shahmohammadii and S. Jaliliii, “A Quantitative Evaluation of
Maintainability of Software Architecture Styles.”
[39] M. Ó. Cinnéide, D. Boyle, and I. H. Moghadam, “Automated
refactoring for testability,” in Software Testing, Verification and
Validation Workshops (ICSTW), 2011 IEEE Fourth International
Conference on, 2011, pp. 437-443.
[40] G. Antoniol, B. Caprile, A. Potrich, and P. Tonella, “Design code
traceability for object oriented systems,” Annals of Software
Engineering, vol. 9, pp. 35-58, 2000.
[41] L. C. Briand, “Software documentation: how much is enough?,”
in Software Maintenance and Reengineering, 2003. Proceedings.
Seventh European Conference on, 2003, pp. 13-15.
[42] M. Bruntink and A. Van Deursen, “Predicting class testability using
object-oriented metrics,” in Source Code Analysis and Manipulation,
2004. Fourth IEEE International Workshop on, 2004, pp. 136-145.
[43] D. Posnett, A. Hindle, and P. Devanbu, “A simpler model of software
readability,” in Proceedings of the 8th Working Conference on Mining
Software Repositories, 2011, pp. 73-82.
[44] R. P. Buse and W. R. Weimer, “Learning a metric for code readability,”
Software Engineering, IEEE Transactions on, vol. 36, pp. 546-558,
2010.
[45] A. B. Al-Badareen, Z. Muda, M. A. Jabar, J. Din, and S. Turaev,
“Software quality evaluation through maintenance processes,” in
NAUN Conference of CONTROL, 2010.
[46] M. Ilyas, M. Abbas, and K. Saleem, “A Metric Based Approach
to Extract, Store and Deploy Software Reusable Components
Effectively,” IJCSI International Journal of Computer Science Issues,
vol. 10, pp. 257-264, 2013.
[47] L. Antonelli and A. Oliveros, “Fuentes Utilizadas por desarrolladores
49
[48]
[49]
[50]
[51]
de Software en Argentina para Elicitar Requerimientos,” in WER,
2002, pp. 106-116.
R. L. Antonelli and A. Oliveros, “Traceability en la Etapa de
Elicitación de Requerimientos,” in II Workshop de Investigadores en
Ciencias de la Computación, 2000.
O. C. Gotel and A. C. Finkelstein, “An analysis of the requirements
traceability problem,” in Requirements Engineering, 1994.,
Proceedings of the First International Conference on, 1994, pp. 94101.
R. Brcina, S. Bode, and M. Riebisch, “Optimisation process for
maintaining evolvability during software evolution,” in Engineering
of Computer Based Systems, 2009. ECBS 2009. 16th Annual IEEE
International Conference and Workshop on the, 2009, pp. 196-205.
(22-03-2014). AQC Lab: Laboratorio de Evaluación de la Calidad
Software. Available: http://www.alarcosqualitycenter.com/index.php/
laboratorio-evaluacion-calidad-software.
Jennifer Erazo Martínez nació en
Popayán, Cauca, Colombia. Es Ingeniera de
Sistemas de la Universidad del Cauca.
Andrés Flórez Gómez nació en
Popayán, Cauca, Colombia. Es Ingeniero de
Sistemas de la Universidad del Cauca.
Francisco J. Pino, Nació en Almaguer,
Cauca, Colombia. Es ingeniero en Electrónica
y Telecomunicaciones de la Universidad del
Cauca. Obtuvo su título de especialista en
Redes y Servicios Telemáticos también en la
Universidad del Cauca. Obtuvo su doctorado
en Tecnologías Informáticas Avanzadas en la
Universidad Castilla-La Mancha, de Ciudad
Real, España. Actualmente se desempeña
como profesor de planta en la facultad de
Ingeniería Electrónica y Telecomunicaciones
de la Universidad del Cauca. Pertenece grupo
al grupo de investigación IDIS y su área de
investigación es mejora de procesos de software en pequeñas organizaciones
y métodos de investigación cualitativos para la ingeniería de software.
Universidad Católica de Pereira
50
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 50-60
Poligonación topográfica de alta precisión en el campus de la
Universidad del Quindío1
Topographic traversing of high accuracy inside the campus of
Universidad del Quindío
Poligonacao topográfica de alta precisão no campus da Universidad
del Quindío
J. Garzón, G. Jiménez y X. Cifuentes
Recibido Agosto 26 de 2015 – Aceptado Febrero 19 de 2016
Resumen— Este trabajo describe el procedimiento de diseño,
monumentación y medición de un sistema de poligonación
al interior del campus de la Universidad del Quindío, con
instrumental clásico, que servirá como marco de referencia
para el soporte de los trabajos topográficos y cartográficos de la
institución, bajo requisitos técnicos que soporten sus precisiones
relativa y absoluta, a través de coordenadas determinadas sobre
el sistema de referencia horizontal para Colombia: Datum
MAGNA-SIRGAS. La metodología se estructuró bajo la Teoría
de Errores, definiendo el límite de las incertidumbres esperadas
en función de las características técnicas de los instrumentos de
medida, la configuración geométrica del polígono, los métodos
y diseños de medición. Se lograron hallazgos interesantes en
términos de la propagación del error y sus elipses, debido a que
sus magnitudes, formas y orientaciones definieron la dirección
de fortalecimiento geométrico del marco de referencia.
Palabras clave— diseño, mediciones topográficas,
incertidumbre, instrumentación, poligonación, propagación de
errores.
1
Producto derivado del proyecto de investigación “Diseño red
topográfica de alta precisión en el Campus de la universidad del Quindío”.
Trabajo adscrito al Grupo de Investigación GEIOIDE G-62, de la Facultad
de Ingeniería – Programa de Topografía de la Universidad del Quindío
Armenia - Colombia.
J. Garzón. Profesor investigador grupo GEOIDE G-62 (Universidad
del Quindío) y Gerencia de la Tierra (Universidad La Gran Colombia).
Armenia (Colombia) Campus La Santa María km 7 vía Armenia - La
Tebaida (Colombia); email: [email protected]
G. Jiménez. Profesor investigador, Universidad del Quindío, Facultad
de Ingeniería, Programa de Topografía, grupo GEOIDE G-62 (Universidad
del Quindío). Armenia - Colombia. Carrera 15 Calle 12 N; email: [email protected]
uniquindio.edu.co
X. Cifuentes. Universidad La Gran Colombia, Decana Facultad de
Ingenierías, Profesor investigador grupo Gerencia de la Tierra. Armenia
(Colombia) Campus La Santa María km 7 vía Armenia - La Tebaida
(Colombia); email: [email protected]
Entre Ciencia e Ingeniería
Abstract— This article describes the design procedure,
monumentation and measuring system traversing inside the
campus of Universidad del Quindío, with classical instruments,
which is used as a framework to support the surveying and
mapping work of the institution, under technical requirements
to support their relative and absolute precision through
coordinates determined on the horizontal reference system for
Colombia: Datum MAGNA-SIRGAS. The methodology was
structured under the theory of errors, defining the limit of the
uncertainties expected in terms of the technical characteristics
of measuring instruments, the geometry of the polygon, and
designs of measurement methods. Interesting findings were
obtained in terms of error propagation and ellipses, because of
their magnitudes, shapes and orientations defined the direction
of strengthening the geometric framework.
Key words— design, topographic surveying, uncertainty,
instrumentation, traversing, error propagation.
Resumo – Este trabalho descreve o procedimento de projeção,
monumentation e medição de um sistema de poligonação
ao interior do campus de a Universidade de Quindío, com
instrumental clássico, que servira como um quadro de referência
para o suporte dos trabalhos topográficos e cartográficos da
instituição, sob-requisitos técnicos que suportem suas precisões
relativa e absoluta, através de coordenadas determinadas sobre
o sistema de referencia horizontal para Colômbia: Datum
MAGNA-SIRGAS. A metodologia se estruturou sob a Teoria
de Erros, definindo o limite das incertezas esperadas em função
das características técnicas dos instrumentos de medida, a
configuração geométrica do polígono, os métodos e projetos de
medição. Alcançaram resultados interessantes em términos da
propagação do erro e suas elipses, devido a suas magnitudes,
formas e orientações definiram a direção de fortalecimento
geométrico do quadro de referência.
Palavras chave: projeto, medições topográficas, incerteza,
instrumentação, poligonação, propagação de erros.
51
Nomenclatura
s : Desviación estándar norte
s : Desviación estándar este
φ: Latitud
λ: Longitud
s.my: Semieje mayor
s.mr: Semieje menor
N
E
I. Introducción
E
L desarrollo de la Teoría de Errores se atribuye a
Gauss quien publicó los tratados ‘Theoria motus
corporun Coelestium’ en 1809 y ‘Theoria combitationis
observationum erroribus obnoxiae’ en 1823, donde se
define su aplicación práctica llegando a la deducción que los
gobierna y que hoy lleva su nombre [1]. Los procedimientos
topográficos implican el uso de principios físicos y
matemáticos, la selección apropiada de éstos depende
en gran parte del conocimiento de los fundamentos de la
medición topográfica, así como del análisis de sus resultados
[2]. Se sabe que toda magnitud observada o medida contiene
errores de cuantía desconocida debido a múltiples causas,
por lo cual una medida nunca es realmente verdadera
[3], [4]. La determinación numérica de la medida de una
magnitud física siempre se encuentra sujeta a error, que se
pone de manifiesto al obtener diferentes resultados de la
misma medida. [5] señala que las mediciones repetidas de
una magnitud dada por un mismo observador, con un mismo
instrumento y en circunstancias análogas no conducen
siempre a un mismo resultado, estas observaciones están
afectadas por errores atribuidos a los agentes que concurren a
la medición: el observador, el instrumento y las condiciones
ambientales. De acuerdo con lo indicado por [6] [7] [8], los
errores en la medición se pueden agrupar en tres categorías:
equivocaciones, errores sistemáticos y errores aleatorios;
los primeros resultan de descuidos en las observaciones, los
segundos se originan de fuentes que actúan de forma similar
en las observaciones, se rigen por las leyes de la física por
lo que su magnitud puede calcularse y su efecto eliminarse,
y los últimos permanecen en la medida y se desconoce su
valor, obedecen a las leyes de la probabilidad y se tratan
mediante procesos estadísticos [9] [10] [11]. De acuerdo a
las fuentes, los errores se categorizan como: instrumentales,
personales y naturales [12] [13] [14] [15]. Los errores
instrumentales son causados por las imperfecciones en la
construcción y ajuste de los instrumentos, así como por el
excesivo movimiento de sus piezas individuales [16], [17].
Los errores personales provienen de la limitación de los
sentidos humanos, y los naturales tienen su origen en las
variaciones de las condiciones ambientales de la medida
[18]. Existen dos métodos para reducir y eliminar errores: el
primero es mejorar la precisión del instrumental de medición
y el segundo, adoptar una apropiada rutina de medición [19].
La evolución de la topografía en las últimas décadas no
solo ha incidido en los instrumentos de medición, sino en
la incorporación de nuevos términos que han permitido que
la ciencia de la metrología defina con claridad conceptos
como el de incertidumbre. Según [20] “la incertidumbre es
un parámetro asociado al resultado de una medición, que
caracteriza la dispersión de los valores que podrían ser
razonablemente atribuidos al mensurando”. En topografía
se considera que el elemento fundamental de los trabajos de
campo es el punto, y es a partir de su definición que se da la
existencia de los sistemas de apoyo geométricos por medio
de las poligonales que se definen como una serie consecutiva
de puntos ligados entre sí a partir de observación de ángulos
y distancias [21] [22] [23]. Las técnicas de poligonación
incluyen: el reconocimiento de campo, selección del
instrumental de medición, observaciones de campo, cálculo
y ajuste [24]. Al igual que con cualquier técnica topográfica
la incertidumbre de una poligonal se propaga directa y
acumulativamente en el punto final de la medición, esta
incertidumbre es atribuible al diseño de la red, el número
de armadas del instrumento, los procedimientos de medición
empleados y la longitud de la poligonal, se hace entonces
necesario, examinar la incertidumbre de las restricciones
mínimas del ajuste (elipse de error), y la incertidumbre
relativa (desviaciones estándar, errores de cierre lineales)
de forma que permitan evaluar la calidad de las mediciones
[25]. Se ha demostrado que los criterios de fiabilidad y
resistencia geométrica de las poligonales son altamente
correlacionados [26]. La poligonación han sido ampliamente
usada en diversos proyectos de ingeniería topográfica como
elemento fundamental en la mediciones para control de
obras civiles y ubicación de objetos sobre mapas [27] [28]
soporte geométrico para medición planimétrica de terrenos
[29] control de deformaciones estructurales [30] proyectos
de desarrollo vial [31] túneles [32] delimitación predial [33]
densificación de redes geodésicas [34], así como trabajos
mineros y geológicos [35] [36] [37].
La oficina de Planeación y Desarrollo de la universidad
tiene entre sus funciones planificar el crecimiento y
adecuación del campus, lo que la convierte en el principal
usuario de la información topográfica a nivel institucional;
esta dependencia es la unidad responsable del soporte físicomatemático de la información topográfica y cartográfica de
la institución y su permanente actualización; para lograr
este cometido es necesario definir un sistema de referencia
espacial unificado e interoperable que permita confeccionar
el mapa topográfico actualizado del campus bajo estándares
señalados por el Programa Académico de Topografía. El
objetivo fundamental de este trabajo ha sido el diseño,
monumentación y medición de un sistema de poligonación
que sirva como marco de referencia lo suficientemente
preciso para el soporte de los trabajos topográficos y
cartográficos (en entornos SIG) al interior del campus, bajo
requisitos técnicos que soporten sus precisiones relativa y
absoluta, a través de coordenadas determinadas sobre el
sistema de referencia horizontal para Colombia: Datum
MAGNA-SIRGAS.
Universidad Católica de Pereira
52
La metodología se apoyó en la Teoría de Errores, que
permitió definir el límite de las incertidumbres esperadas en
función de las características técnicas de los instrumentos
de medida, la configuración geométrica del polígono, los
métodos y diseños de medición. La implementación de
esta metodología permitió hacer hallazgos interesantes
en términos de la propagación del error y sus elipses, ya
que sus magnitudes, formas y orientaciones dependieron
de las restricciones usadas en el ajuste, la precisión de las
observaciones, y la geometría del polígono.
características técnicas de los instrumentos de medida con
la fuerza geométrica del polígono de apoyo, a través de
la monumentación de 13 puntos que definen el marco de
referencia, con una cobertura aproximada de 10 Ha.
II. Desarrollo del artículo
A. La Universidad y el Campus
La Universidad del Quindío es un establecimiento
educativo público de carácter académico superior, cuenta con
un área superficial de 25 Ha, de las cuales 13 corresponden
a zonas de protección natural que se encuentran delimitadas
por cerca de 2 Km de quebradas, lo cual denota su riqueza
hídrica y topografía escarpada. El Campus Universitario
se encuentra ubicado en latitud 4°33’10” N y longitud
75°39’33” W del Meridiano Origen, y tiene una elevación
de 1530 metros sobre el nivel medio del mar (Fig. 1). A nivel
nacional es categorizada como una universidad de tamaño
mediano, y fue fundada con el Programa Académico de
Topografía hace 53 años.
Fig. 2. Diagrama de flujo matemático de pre-diseño, diseño, análisis, y
ajuste de observaciones topográficas
Fig. 1. Localización de la zona de estudio. Fuente: SIG Quindío
El proyecto contó con una base cartográfica elaborada
en el año 2000 por métodos topográficos clásicos bajo una
estructura vectorial en formato dwg; así mismo se tuvieron
a disposición diferentes instrumentos de medición angular
y lineal, de los cuales se seleccionaron aquellos de menor
desviación estándar pertenecientes al Laboratorio de
Instrumentos Topográficos de la universidad, definiendo
para las observaciones angulares un teodolito reiterador
Carl Zeiss Jena THEO-010A con lectura directa de ±1” y
para la medición electrónica de distancias la estación total
South NTS-372R, que de acuerdo a su ficha técnica mide
con precisión de ±2 mm ±2 ppm.
El objeto de la metodología es la implementación de
un modelo experimental de medición (Fig. 2) que permita
definir los valores de su incertidumbre, combinando las
Entre Ciencia e Ingeniería
1) Prediseño
La precisión del marco de referencia no depende
solo de la precisión de la mediciones sino también de su
configuración geométrica; para que la poligonal sea fuerte
y confiable, los vértices deben hallarse lo más uniforme
posibles tanto que las condiciones de campo así lo permitan,
y enlazadas mediante observaciones directas, teniendo en
cuenta que la mayor longitud no debe superar cinco veces
el vector más corto del polígono [38]. La fuerza geométrica
de las poligonales es especialmente baja cuando se cambia
la dirección de un vector en ángulo de 90° con relación a
la dirección principal del avance [39]. Diferentes autores
como [40] [41] [42] señalan diversos aspectos importantes
en el posicionamiento de los vértices de poligonación y
redes topográficas, como: garantía de permanencia en el
tiempo, estabilidad dimensional y material, facilidad de
estacionamiento, descarte de posicionamiento de vértices
en áreas susceptibles a asentamientos causados por
movimientos de tierra, y las formas geométricas generales
de construcciones existentes en el área de cobertura del
polígono (superficial, lineal, o en altura).
Antes de realizar cualquier proceso de medición en
campo, es necesario el establecimiento de las estaciones
aproximadas que definirán los vértices de la poligonal,
el diseño de medición, su incertidumbre asociada, y la
propagación de sus errores, todo esto es lo que se define
53
como pre-diseño. De acuerdo con [43] [44] la propagación
de errores implica obtener las características estadísticas de
las variables dependientes dadas las características de las
independientes y las relaciones de funciones relativas en los
dos conjuntos de variables (varianzas y co-varianzas), en
el pre-diseño esta propagación debe ser acotada cuando se
combinan varias fuentes de error sobre un mismo conjunto
de mediciones, estableciendo las relaciones de observación
entre errores derivados de ángulo combinados con aquellos
producidos por la medición de la distancia. Según [45] la
ecuación de propagación de errores se define así:
donde,
representa la contribución individual
al error total que ocurre como resultado de errores en las
observaciones en cada variable independiente.
Generalmente en el pre-diseño no se logran todas las
condiciones ideales debido a las características obligantes
del terreno; hay poligonales en donde la adyacencia de
vértices no logra ser enlazada de manera conveniente y
suelen suceder desequilibrios en las distancias que afectan la
rigidez de la figura, lo que se verá fuertemente reflejado en
los resultados de propagación de los errores.
De forma general la calidad de un sistema de poligonación
estará dado en términos de la incidencia que presenten las
variables estadísticas de la medición sobre las coordenadas;
como producto de los errores accidentales en la medición
se obtienen las elipses absolutas de error que determinan
la incertidumbre en el posicionamiento de cada vértice, las
elipses relativas que dan cuenta de la precisión que existe
entre un par de estaciones, su orientación está definida por
el ángulo que se forma entre el semieje mayor y la línea que
une la estación con el punto a observar.
No se logra incrementar la calidad de las mediciones
aumentando solamente el número de reiteraciones, de acuerdo
con [46] la calidad de los datos dependerá esencialmente de
la calidad del diseño de la poligonal, la calidad del modelo
de ajuste matemático, y la calidad de las observaciones.
Una vez definidas la geometría conformada por las
estaciones aproximadas y el instrumental de medición, se
obtuvo un estimativo de consistencia con los demás puntos
de la red que reflejará la capacidad de levantamiento
permitiendo duplicar los valores de control ya existente, de
acuerdo con la NTC 5204 para este sistema de poligonación
aplicará orden cinco con una clasificación de precisión del
95 % de confianza menor o igual que 0,020 m.
2) Diseño de la poligonal viable y probable
[47] Indican que el diseño de redes se divide en cuatro
etapas conocidas como: problemas de diseño cero, uno dos
y tres: PD0 se relaciona con el sistema de referencia espacial
de la red, PD1: responde a que vértices hay que realizar las
observaciones, PD2: define la metodología e instrumentos
de medición, PD3: aprovechamiento de otras redes.
Un sistema de referencia es el conjunto de convenciones
y conceptos teóricos adecuadamente modelados que
permiten definir en cualquier momento la orientación,
ubicación y escala de tres ejes coordenados (X, Y, Z), ya
que es un modelo conceptual, se accesa mediante puntos
materializados en mojones con coordenadas determinadas
sobre el sistema de referencia dado, a este conjunto de puntos
se le conoce como marco de referencia [48]. El sistema de
referencia geocéntrico definido por el Servicio Internacional
de Rotación Terrestre y Sistemas de Referencia (IERS) usado
en geodesia es un Sistema Convencional de Referencia
Terrestre (ITRS), su materialización en el globo terráqueo es
el marco ITRF (International Terrestrial Reference Frame).
En América Latina la densificación del marco de referencia
ITRF es la red SIRGAS (Sistema de Referencia Geocéntrico
para América del Sur) con 58 estaciones GPS distribuidas
sobre el continente.
El Instituto Geográfico Agustín Codazzi (IGAC) es el
ente gubernamental Colombiano encargado de determinar,
establecer, mantener y proporcionar los sistemas de
referencia geodésico, gravimétrico y magnético (decretos
No 2113/1992 y 208/2004); este instituto ha definido un
Marco Geocéntrico Nacional de Referencia o Red MAGNA
de estaciones GPS de primer orden (precisión de ±1 mm
en coordenadas) conformado por 60 estaciones GPS con
cobertura nacional, ocho de las cuales son vértices SIRGAS
y 16 corresponden a la red geodinámica CASA (Central And
South America GPS Project), su Datum geodésico asociado
corresponde con el elipsoide WGS84, y por estar referida
a SIRGAS se conoce como MAGNA-SIRGAS. Dichos
vértices fueron determinados con el propósito de suministrar
una plataforma confiable a los productores y usuarios de
información georreferenciada en el país [49].
La red básica GPS del Quindío (RGQ-2000) está
distribuida uniformemente sobre el departamento y
compuesta por 62 estaciones, determinadas por el IGAC
bajo el sistema MAGNA siguiendo especificaciones
internacionales para la definición de redes GPS regionales
de primer orden; la poligonación de alta precisión objeto
de este estudio al interior del Campus Universitario, es
una densificación de dicho sistema (MAGNA-SIRGAS),
totalmente compatible con el Datum continental SIRGAS
y con el ITRF mundial, pues uno de sus vértices también
lo es de la red geodésica departamental (D-QN 2), las
estaciones restantes del sistema de poligonación en cuestión
fueron densificados con instrumentos clásicos (ópticos y
electrónicos) de medición.
3) Construcción de bases de observación
Se utilizó una técnica de construcción robusta que
Universidad Católica de Pereira
54
permitió definir el marco de referencia con materiales
de buena calidad y en terrenos estables que garantizan su
estabilidad temporal. El mojón está fundido en un bloque
de concreto con profundidad de 1,10 m, y 40 cm de lado,
al interior lleva cuatro varillas de acero de ½” (Fig. 3) que
permiten que la estructura alcance su máxima resistencia con
flejes separados cada 15 cm, en su parte central se encuentra
embebida una varilla de ½” en acero inoxidable y con
longitud de 1,20 m que posee un punto grabado que define
las coordenadas del hito. El mojón sobresale 35 cm sobre el
nivel del terreno natural para su fácil identificación visual.
A es el número de veces que se amplifica el tamaño aparente
de los objetos.
Fig. 5. Error de puntería
c) Error de lectura
Es el cometido al realizar la estimación de una lectura en
el círculo graduado del teodolito.
(4)
Fig. 3. Materialización de las estaciones locales
4) Instrumentación
[50] Indican que existen cuatro errores principales
en los teodolitos óptico-mecánicos que aportan una alta
contribución al error accidental y que se refleja en la
incertidumbre angular de itinerario de medición; dichos
errores son: verticalidad, puntería, lectura, y dirección,
actúan de manera independiente y producen el error total
angular.
a) Error de verticalidad del eje principal
Al poner el instrumento en estación (Fig. 4), éste no
quedará perfectamente vertical, ello da lugar a este error, se
calcula con la siguiente expresión:
(2)
Donde, S corresponde a la sensibilidad del instrumento,
expresada en segundos.
Fig. 4. Error de verticalidad eje VV
b) Error de puntería
Se genera por la no coincidencia entre el objeto que
se quiere visar y el centro del retículo del anteojo (Fig. 5), se
define así:
(3)
Entre Ciencia e Ingeniería
donde, m es la mínima graduación del círculo en lectura
directa.
d) Error de dirección
Es el producido debido a la no coincidencia entre el
punto donde se desea centrar el instrumento y aquel punto en
que en realidad está situado, afecta tanto a la estación como
al objetivo donde se está visando, se calcula de la siguiente
forma:
(5)
donde, ee es el error en el centrado del teodolito, ep
corresponde al error de centrado de la señal visada, D es
la distancia entre el teodolito y la señal, y p es el factor de
conversión de radianes a segundos sexagesimales.
Una de las mayores fuentes de incertidumbre en la
medición de ángulos horizontales en procedimientos
topográficos proviene del centrado del instrumento [51].
Cuando éste se estaciona sobre un mojón se presenta un
desplazamiento con respecto al valor verdadero de su
centro causando incertidumbre en su posición horizontal,
esta incertidumbre depende esencialmente del sistema
de centrado, la calidad del trípode y la habilidad del
instrumentador [23]. En el centrado con plomada óptica [52]
señalan que el valor de esta incertidumbre es de 2 mm, [53];
y [54] indican que es de 1 mm, mientras que [15] indican
que se encuentra entre 1 y 0,5 mm. En la ejecución de este
trabajo, el centrado de instrumentos (teodolito y señales
de puntería) se realizó con plomada óptica cenit-nadir,
considerada un instrumento práctico de centrado forzoso
sobre la base nivelante, con una desviación típica de 1 mm
en 30 m.
Cuando existe solo una estación el error de centrado se
55
concibe como sistemático (Fig. 6), sin embargo, dado que
la ubicación del instrumento sobre el punto es aleatoria y
que el proceso de poligonación incluye muchas estaciones,
su tratamiento estadístico debe corresponder al de errores
accidentales; por ello el error de centrado es sistemático en
efecto pero aleatorio en naturaleza.
donde, L es el perímetro del polígono, eta corresponde al
error total angular, N es el número de vértices.
g) Error longitudinal
Es generado en la medición electrónica de distancias,
en este procedimiento los errores de centrado tanto del
instrumento de medición como de la señal juegan un papel
definitivo, especialmente en distancias cortas; de acuerdo
con [45] se determina así:
(8)
Fig. 6. Efectos del centrado del instrumento en la medición de ángulos
horizontales. En el caso (a) el error se compensa, en los casos (b) y (c)
presenta su mayor magnitud.
donde, si es el error de centrado del instrumento,
corresponde al error de centrado del reflector, a y b son los
parámetros de precisión especificados para el instrumento, y
D es la distancia medida.
h) Error lineal del itinerario
Fig. 7. Magnitud de los errores angulares debido al centrado de la señal.
El máximo error angular ocurrirá cuando el centrado de
la señal de puntería sea perpendicular a la dirección de cada
punteo del teodolito (Fig. 7), cada error de centrado atrás
y adelante en el recorrido de la poligonal afectará el error
angular total y se propagará de acuerdo a la ley de la suma
de errores aleatorios.
e) Error total angular
Es aquel que contiene la sumatoria de los cuatro errores
principales, de acuerdo con [50] [55], cuando se utiliza el
método de reieración en la medición de ángulos horizontales,
se disminuyen los errores de lectura y puntería debido a la
regla de Bessel, pues cada ángulo es medido en una zona
diferente del limbo; aplicando la ley de propagación de
los errores (error de la suma) el error total angular quedará
defino así:
donde, el corresponde al error lineal, ep es el error de
(6)
puntería, ev es el error de verticalidad, ed es el error en
dirección, y n es el número de veces que se reitara el ángulo.
f) Error transversal
Es el ocasionado por la influencia de acumulación de
los errores angulares sobre el recorrido de la poligonal, su
modelo matemático es:
(7)
Corresponde al error total de distancia en el recorrido de
la poligonal, se expresa en términos del error de la serie, y
se define así:
(9)
donde, elo corresponde al error longitudinal y el número
de estaciones.
i) Error total
Es la suma de los errores cometidos en las mediciones
angulares y de distancia. Según [13] se calcula así:
(10)
donde, etr es el error transversal y eli el error lineal del
itinerario.
5) Procedimientos de verificación instrumental
La evaluación del instrumento de medición angular
(THEO-010A) se realizó mediante procedimientos de
campo que permitieron verificar la magnitud de los errores
de colimación horizontal, vertical y de inclinación. La
implementación de evaluación instrumental se realizó
mediante nueve señales de puntería ubicadas a distancia
aproximada de 50 m; se emplazaron tres láminas
reflectivas en un plano aproximadamente horizontal en
sitios estratégicos que permitieron visuales libres; con
las lecturas angulares obtenidas se calculó la magnitud
del error de colimación horizontal: 2”,67, con otras tres
láminas se realizó el porcedimiento de observaciones para
determinar la magnitud del error de colimación vertical: 8”.
Posteriormente se ubicaron tres láminas reflectivas en la
parte alta de un edificio presente en la misma zona, a las
que se les realizaron observaciones de lecturas de círculos
horizontales y verticales, con dichos datos se determinó la
presencia del error de inclinación y su magnitud: 1”,93.
Universidad Católica de Pereira
56
La evaluación del dispositivo electro-óptico de medición
de distancias (estación total South NTS-372R) se realizó en
la base de calibración de distanciómetros perteneciente al
laboratorio de metrología de la universidad, donde se verificó
que éste se encuentra en el rango de error que sugiere la ficha
técnica: ±2 mm ±2 ppm.
6) Plan o programa de observación
El procedimiento de observaciones de campo se realizó
en periodos específicos del día (de 8:00 - 10:30 y de 15:00
– 17:30) a fin de reducir los efectos de las distintas fuentes
de incertidumbre natural (refracción atmosférica, humedad,
presión atmosférica, viento, y cambios de temperatura
que pueden ocasionar expansión desigual de las partes del
instrumento) que alteran las medidas siendo susceptibles
a una mayor propagación del error en trabajos de alta
precisión. [56].
Previo al procedimiento de medición de distancias
se configuraron al instrumento los valores de presión
barométrica de la zona: 640 mmHg y temperatura promedio
de 24° C para realizar el ajuste de reducción de distancias,
así mismo, se configuró para realizar la medición entre un
par de puntos con diez repeticiones. La medición electrónica
utilizó metodología de distancias recíprocas; todos los
instrumentos de medición tuvieron un centrado estricto con
la plomada cenit-nadir, luego de nivelar los instrumentos se
tuvo un tiempo de espera de diez minutos antes de realizar
cualquier medición, tiempo en el cual se realizó la rotación y
giro de las partes móviles del instrumento.
Fig. 8. Establecimiento de receptor GNSS en UQ-01
Luego se realizaron las observaciones de campo que
permitieron registrar los ángulos horarios internos del
polígono (Tabla I) y las distancias horizontales (Tabla II)
entre los vértices.
Tabla I.
Ángulos horarios sin ajustar
Estación
Atrás
UQ-01
DQN2
Entre Ciencia e Ingeniería
Ángulo horario
UQ-02
DQN2
162°30’21.1”
UQ-01
UQ-12
216°31’08.9”
UQ-12
DQN2
UQ-11
68°20’03.9”
UQ-11
UQ-12
UQ-10
71°49’16.0”
UQ-10
UQ-11
UQ-09
144°41’28.2”
UQ-09
UQ-10
UQ-08
149°49’39.8”
UQ-08
UQ-09
UQ-07
230°33’55.4”
UQ-07
UQ-08
UQ-06
146°44’36.1”
UQ-06
UQ-07
UQ-05
185°36’45.6”
UQ-05
UQ-06
UQ-04
100°43’53.3”
UQ-04
UQ-05
UQ-03
119°39’36.7”
UQ-03
UQ-04
UQ-02
128°50’57.3”
UQ-02
UQ-03
UQ-01
154°08’26.5”
Tabla II.
Distancias horizontales sin ajustar
De acuerdo con [9] el método de reiteración para
medir ángulos horizontales disminuye los efectos de los
errores sistemáticos tales como excentricidad, graduación y
colimación del círculo horizontal. Las magnitudes angulares
de los errores de graduación y excentricidad obtenidas
en cada set fueron promediadas, se calculó su desviación
estándar para obtener la media del ángulo, la cual no debía
exceder 00°00’00”,8 entre observaciones.
La línea base de la poligonal se definió a partir del
posicionamiento de un receptor GNSS de doble frecuencia
que permitió la orientación de norte geográfico del polígono
(Fig. 8). Este posicionamiento tuvo tiempo de observación
de dos horas en los puntos que definen los extremos de la
línea base (DQN2 y UQ-01). Las coordenadas elipsoidales
calculadas y ajustadas al Datum MAGNA SIRGAS de DQN2
fueron φ: 04° 33’ 15”,1628 N y λ: 75° 39’ 44”,1845 W, y
UQ-01 con φ: 04°33’16”,21077 N y λ: 75°39’43”,57549 W,
que definen un azimut para la línea DQN2 UQ-01 de 30°
15’ 15”,21 y una separación horizontal de 37,282 m, bajo el
sistema cartesiano local de Armenia.
Adelante
Estación
Atrás
Distancia (m)
UQ-01
DQN2
37,2815
DQN2
UQ-12
91,5750
UQ-12
UQ-11
62,3885
UQ-11
UQ-10
132,1390
UQ-10
UQ-09
66,3100
UQ-09
UQ-08
133,8570
UQ-08
UQ-07
121,0120
UQ-07
UQ-06
44,5680
UQ-06
UQ-05
95,4805
UQ-05
UQ-04
132,5650
UQ-04
UQ-03
235,0480
UQ-03
UQ-02
116,6410
UQ-02
UQ-01
125,7500
7) Ajuste
Las redes topográficas locales buscan definir un
marco de referencia geométrico como soporte a trabajos
ingenieriles y de representación cartográfica, esta definición
se realiza a partir de observaciones de campo lo que plantea
57
que hay que buscar la correlación matemática entre los
parámetros del modelo conceptual y las observaciones que
definen el emplazamiento del marco físico; así mismo,
es de obligatorio análisis el modelo estadístico de los
errores propios producidos por la medición. Según [57]
una poligonal es la combinación básica de dos mediciones
topográficas: distancias y direcciones, éstas se consideran
una forma indirecta de definir las coordenadas de los vértices
del polígono.
Asumiendo que las equivocaciones y los errores
sistemáticos han sido eliminados, las direcciones y distancias
de la poligonal son afectadas por pequeños errores aleatorios
(que obedecen a las leyes de la probabilidad y se espera que
estos se ajusten a la distribución normal) que se evidencian
en el error de cierre de la poligonal, la sumatoria interior
de los ángulos de cualquier polígono cerrado obedece al
modelo geométrico:
ec = (n - 2) • 180˚
(11)
donde, ec es el error de cierre y corresponde al número
de vértices del polígono.
Un residual tiene la misma magnitud que un error pero
con signo contrario y ya que las distancias y direcciones
son medición indirecta de coordenadas, se puede decir que
los residuales son función de las coordenadas de los puntos
de la poligonal. El ajuste de una poligonal por Mínimos
Cuadrados determina un conjunto de coordenadas que hace
que la suma al cuadrado de los residuales sea la mínima.
La gran ventaja que presenta este modelo de ajuste es que se
permite la inclusión simultánea de todas las observaciones,
y cada una de ellas se puede ponderar de acuerdo con su
precisión estimada [23].
con la fuerza geométrica del sistema de poligonación (Tabla
III). Se encontraron desviaciones mínimas de los semiejes
de las elipses cotejadas entre los resultados del prediseño y
aquellas de las mediciones ajustadas; la máxima desviación
fue de 8 mm evidenciando las bondades del prediseño de
especificaciones en poligonación topográfica.
Tabla III.
Magnitudes semiejes elipses abolutas prediseño vs medición
Prediseño
Medición
Estación
s.my
s.mn
s.my
Residuales
s.mn
s.my
s.mn
DQN2
0,000
0,000
0,00
0,00
0,000
0,000
UQ-01
0,000
0,000
0,000
0,000
0,000
0,000
UQ-02
0,006
0,005
0,006
0,006
0,000
0,001
UQ-03
0,009
0,007
0,012
0,007
0,003
0,000
UQ-04
0,016
0,008
0,020
0,008
0,004
0,000
UQ-05
0,017
0,007
0,021
0,008
0,004
0,001
UQ-06
0,014
0,008
0,018
0,009
0,004
0,001
UQ-07
0,013
0,008
0,016
0,016
0,003
0,008
UQ-08
0,010
0,007
0,012
0,008
0,002
0,001
UQ-09
0,010
0,006
0,011
0,006
0,001
0,000
UQ-10
0,010
0,006
0,010
0,006
0,000
0,000
UQ-11
0,007
0,006
0,008
0,007
0,001
0,001
UQ-12
0,005
0,004
0,005
0,004
0,000
0,000
Según [43] la solución mínimo cuadrática de ecuaciones
de observaciones topográficas de distinto peso está definida
por el modelo matricial:
(12)
donde, X es el valor del residual, A es la matriz
Jacobiana que contiene los coeficientes de las ecuaciones de
observación linealizadas por aproximaciones sucesivas de
Taylor, W es la matriz de los pesos, y L es la matriz de las
observaciones.
B. Resultados
La poligonal obtuvo un error total angular de 8,8”, un
error lineal de -0,0078 m en dirección N-S y -0,0001 m
dirección E-W y una precesión horizontal de 5,57 PPM.
Fig. 9. Elipses de error absolutas y relativas, escala de distorsión: 1000
veces. Fuente: Google Earth
Las elipses relativas se consideran cuando importa
conocer la precisión posicional de ubicación relativa entre
dos puntos, es decir, qué tan bien está posicionada una
estación respecto de la otra (Tabla IV), es así como se
identificaron las líneas de mayor confiabilidad para orientar
nuevos polígonos con fines de densificación: UQ11-UQ12,
UQ06-UQ07, UQ09-UQ10.
El error asociado al posicionamiento planimétrico de los
puntos se determinó mediante los parámetros de la elipse de
error absoluta que define la incertidumbre producida a través
de las características técnicas de los instrumentos de medida
Universidad Católica de Pereira
58
Tabla IV.
Magnitudes elipses de error relativas
desde
hasta
s.my
s.mn
Az. s.mn
UQ-01
UQ-02
0,005
0,005
46° 40’
UQ-02
UQ-03
0,005
0,005
32° 46’
UQ-03
UQ-04
0,009
0,005
34° 45’
UQ-04
UQ-05
0,005
0,004
100° 32’
UQ-05
UQ-06
0,004
0,004
10° 40’
UQ-06
UQ-07
0,005
0,002
81° 55’
UQ-07
UQ-08
0,005
0,005
41° 01’
UQ-08
UQ-09
0,006
0,005
133 38’
UQ-09
UQ-10
0,004
0,003
80° 16’
UQ-10
UQ-11
0,007
0,005
55° 20’
UQ-11
UQ-12
0,003
0,003
167° 28’
La propagación de errores del polígono permite
verificar los intervalos de confianza que se deben utilizar
para un trabajo determinado con el objeto de mantener los
resultados dentro de los rangos de tolerancia en función de
las observaciones y sus respectivos errores (Tabla V), en
aquellos casos en que se pretenda producir nueva cartografía
del campus, su actualización, o prácticas académicas de
perfeccionamiento topográfico, estos valores deberán ser
tenidos en cuenta para realizar las labores propias de control
de calidad de dichas labores. Finalmente se obtuvieron las
coordenadas ajustadas de cada una de las estaciones de la
poligonal (Tabla V).
Tabla V.
Coordenadas ajustadas y propagación de errores planimétricos
de una mayor incertidumbre en una de las coordenadas,
uno de los resultados de este trabajo es consecuente con tal
afirmación, verificable en la Fig. 9 a través de las estaciones
UQ-03, UQ-04, UQ-05, y UQ-09 y sus correspondientes
desviaciones estándar fijadas en la Tabla V.
La gran mayoría de las elipses encontradas en la poligonal
son alargadas desde el cuadrante NE al SW, esto sugiere que
es desequilibrada a lo largo de tal dirección, esto se verifica
con la dirección del error lineal que presenta una desviación
ocho veces mayor sobre la proyección meridiana que sobre
la paralela, esto se presenta porque un lado de la red (UQ-04
UQ-05) presenta poca resistencia a la rotación, evidenciado
por las máximas longitudes de los semiejes de las elipses en
estos vértices. Todo esto sugiere que la poligonal deberá ser
fortalecida en la dirección del alargamiento de las elipses a
través de la densificación de la poligonal y/o observaciones
redundantes desde y hacia varias estaciones que puedan
mejorar la geometría de las elipses acercándose a figuras más
circulares que sugerirían equilibrio entre las observaciones
angulares y la medición de distancias.
Agradecimientos
Los autores reconocen las contribuciones del topógrafo
Jair Ramírez destacado funcionario del Servicio Geológico
Colombiano por el posicionamiento satelital de los puntos
extremos de la línea base de este proyecto.
Así mismo expresan profunda gratitud a los Profesores
Gilberto Gómez Gómez, y Jairo Díaz Jurado por iniciar el
camino de la cientifización de la profesión.
Referencias
I. Conclusiones
Se materializó mediante topografía clásica la
poligonación de alta precisión (marco de referencia) en la
cual se emplaza el territorio del campus universitario, a través
de la ejecución de la metodología planteada se definieron
los valores de incertidumbre posicional planimétrica de las
estaciones topográficas mediante las elipses de error que
constituyen un medio para analizar la fuerza geométrica del
sistema, bajo este énfasis y de acuerdo con [50] quienes
sostienen que una elipse alargada demuestra la existencia
Entre Ciencia e Ingeniería
[1] M. J. Sevilla, «Teoría de errores de observación,» Física de la tierra:
geodesia marina y geoide, nº 5, pp. 133-166, 1993.
[2] M. A. R. Cooper, Fundamentals of surveying measurements and
analysis, London: William Clowes & Sons, 1974, p. 107.
[3] R. Davis y F. Foote, Surveying: Theory and practice, 4th ed., New
York: McGraw-Hill Book Company, 1967, p. 880.
[4] S. V. Estopinal, A guide to undestanding land surveys, 2nd ed., United
States: John Wiley & Sons, Inc, 1993, p. 226.
[5] R. Márquez, Introducción al ajuste y diseño de redes topográficas,
San Juan: Universidad Nacional de San Juan, 2009, p. 180.
[6] N. Ballesteros, Topografía, 1a ed., México, D.F.: Limusa, 1984, p.
474.
[7] B. A. Barry, Errors in practical measurments in surveying,
engineering, and technology, M. D. Morris, Ed., United States of
America: Landmark Enterprises, 1991, p. 183.
[8] A. Bannister, S. Raymond y R. Baker, Técnicas modernas en
topografía, 7a ed., México, D.F.: Alfaomega, 2002, p. 550.
[9] O. Trutmann, The theodolite and its application, Heerbrugg,
Switzerland: Wild Heerbrugg, 1967, p. 110.
[10] R. B. Buckner, «The Nature of Measurement: Part 3: Dealing With
Errors,» Professional Surveyor Magazine, pp. 66-86, 1997.
[11] J. Nathanson, M. T. Lanzafama y P. Kissam, Surveying fundamentals
and practices, 6th ed., New Jersey: Prentice Hall, 1999, p. 502.
[12] R. B. Bucner, Surveying Measurements and Their Analysis, 3th ed.,
California: Landmark Enterprises, 1991.
[13] R. Martínez Marín, J. C. Ojeda Manrique, J. A. Sánchez Sobrino, J.
G. Relas Ayuga y J. García García, Geodesia y Topografía, 1a ed.,
Madrid: Bellisco, 2004, p. 329.
[14] J. Nathanson, M. Lanzafama y K. Kissam, Surveying fundamentals
and practices, 5th ed., United States of America: Pearson Prentice
59
Hall, 2006, p. 502.
[15] W. Schofield y M. Breach, Engineering Surveying, 6th ed., Oxford:
Elsevier, 2007, p. 622.
[16] Fialovszky, L.; Holéczy, G.;, «Surveying instruments and their
operational principles,» ISPRS Journal of Photogrammetry and
Remote Sensing, vol. 48, nº 4, pp. 41-42, 1991.
[17] J. M. Anderson y E. D. Mikhail, Survey: Theory and practice, 7th ed.,
New York: McGraw-Hill, 1998.
[18] R. Brinker y W. Taylor, Elementary surveying, United States of
America: International Textbook Company, 1969, p. 686.
[19] R. Shiu, S. Kang, J. Han y S. Hsieh, «Modeling Systematic Errors for
the Angle Measurement in a Virtual Surveying Instrument,» Journal
of Surveying Engineering, vol. 137, nº 3, pp. 81-90, 2011.
[20] GUM, Guía para la expresión de la incertidumbre de medida,
publicada por ISO en nombre del BIPM, IEC, IFCC, ILAC, ISO,
IUPAC, IUPAP y OIML., 2008.
[21] J. R. Smith, Introduction to Geodesy, 2nd ed., New York: John Wiley
& Sons, 1997, p. 224.
[22] F. H. Moffitt y J. D. Bossler, Surveying, 10th ed., United States of
America: Addison Wesley Longman, Inc., 1998, p. 738.
[23] C. Ghilani y P. Wolf, Elementary surveying: an introduction to
geomatics, 13th ed., New Jersey: Pearson Prentice Hall, 2012, p. 931.
[24] R. G. Bird, EDM traverses, New York: John Willey & Sons, 1989, p.
148.
[25] ICSM, Intergovernmental Committee on Surveying and Mapping.
Guideline for Conventional Traverse Surveys: Special Publication 1,
2013.
[26] A. A. Seemkooei, «Comparison of reliability and geometrical strength
criteria in geodetic networks,» Journal of Geodesy, vol. 75, nº 4, pp.
227-233, 2001.
[27] C. A. Herubin, Principles of Surveying, 4th ed., Virginia: Reston
Publishing Company, 1991, p. 301.
[28] I. De Corral y M. de Villena, Topografía de obras, México D.F.:
Alafaomega- Ediciones UPC, 2000, p. 354.
[29] F. Domínguez García-Tejero, Topografía general y aplicada, 13a ed.,
Madrid: ediciones Mundi-Prensa, 1998, p. 811.
[30] USACE, US Army Corps of Engineers, Structural Deformation
Surveying, Washington DC: EM 1110-2-1009, 2002.
[31] M. Ruiz Morales, Nociones de topografia y fotogrametria aerea,
España: Editorial Universidad de Granada, 2003.
[32] A. Tapia Gómez, Topografía subterránea, Cataluña: Ediciones UPC,
2005, p. 212.
[33] B. F. Kavanagh, Surveying with construction applications, New
Jersey: Pearson Prentice Hall, 2007, p. 681.
[34] A. Amiri-Simkooei, J. Asgari, F. Zangeneh-Nejad y S. Zaminpardaz,
«Basic Concepts of Optimization and Design of Geodetic Networks.,»
Journal of Surveying Engineering, vol. 138, nº 4, pp. 172-183, 2012.
[35] R. Taton, Topografía Subterránea, Madrid: Paraninfo, 1977, p. 190.
[36] L. Lupa-Dima y L. Filip, «Error propagation of the sizes measured
in mine working,» Revista Minelor - Mining Revue, nº 2, pp. 32-34,
2012.
[37] Y. . E. Batista-Legrá y O. Belete-Fuentes, «Consideraciones sobre
la exactitud de las redes de levantamiento topográfico,» Minería y
geología, vol. 29, nº 3, pp. 56-64, 2013.
[38] IPGH, Pan American Institute of Geography and History. Manual de
normas y especificaciones para levantamientos geodésicos de alta
precisión en áreas pequeñas, México: Comité de Geodesia IPGH,
1987, p. 51.
[39] A. Del Bianco, Topometría y microgeodesia. Notas de clase, Córdoba:
Universidad Nacional de Córdoba, 2001, p. 360.
[40] D. Miranda Barrós, J. R. Rodríguez Pérez y J. C. Alonso,
«Instalación de redes microgeodésicas como soporte para la gestión
y mantenimiento de sistemas de información geográfica de ámbito
municipal,» de Teledetección. Avances y aplicación: VIII Congreso
Nacional de Teledetección, Albacete, 1999.
[41] O. Cuadrado, L. Garcia-Asenjo, D. Hernández y A. Nuñez,
«PLanificación de redes de control de calidad en procesos
cartográficos. El proyecto RGPA en el Principado de Asturias,» de
VIII congreso nacional de topografía y cartografía, Madrid, 2004.
[42] M. Farjas Abadía, La Topografía y sus métodos: Principios de
investigación, Bilbao: Astrolabio, 2012, p. 500.
[43] E. M. Mikhail y F. Ackerman, Observations and least squares, New
York: University Press of America, 1983, p. 497.
[44] G. Gómez Gómez y G. Jiménez Cleves, Topografía analítica,
Armenia: Universidad del Quindío, 1994, p. 223.
[45] C. D. Ghilani y P. R. Wolf, Adjustment Computations, 4th ed., New
York: John Wiley & Sons, Inc., 2006, p. 611.
[46] E. M. Mikhail y G. Gracie, Analysis & Adjustment of Survey
Measurements, New York: Van Nostrand Reinhold, 1981, p. 368.
[47] M. Chueca Pasos, J. Herráez Boquera y J. L. Berné Valero, Tratado de
Topografía. Tomo III. Redes topográficas y locales.Microgeodesia.,
Madrid: Paraninfo, S.A, 1996c, p. 448.
[48] IERS, « International Earth Rotation Service Annual Report,» Dick ,
Wolfgang R.; Richert, Bernd;, Frankfurt am Main, 2000.
[49] L. Sánchez Rodríguez, H. Drewes y H. Tremel, «Procesamiento
de la red GPS básica de Colombia. Marco Geocéntrico Nacional
MAGNA,» Revista Cartográfica, vol. 73, pp. 7-24, 2001.
[50] M. Chueca Pasos, J. Herráez Boquera y J. L. Berné Valero, Tratado
de Topografía Tomo I. Teoría de errores e instrumentación, Madrid:
Paraninfo, S.A, 1996a, p. 522.
[51] A. M. Ruiz Armenteros, J. L. García Balboa, J. L. Mesa Mingorance,
J. J. Ruiz Lendínez y M. I. Ramos Galán, «Contribution of instrument
centring to the uncertainty of a horizontal angle,» Survey Review, vol.
45, nº 331, pp. 305-314, 2013.
[52] P. Richardus y J. S. Allman, Project Surveying, Amsterdam: NorthHolland Publishing Company, 1966.
[53] M. A. R. Cooper, Modern theodolites and levels, 2 nd ed., Oxford:
BSP professional books, 1987.
[54] O. Baykal, T. Ergin, M. Z. Cozkun y E. Turan, «Accuracy of Point
Layout with Polar Coordinates,» Journal of Surveying Engineering,
vol. 131, nº 3, pp. 87-93, 2005.
[55] E. D. Arrufat Molina, Instrumentos Topográficos, Valencia: Tirant lo
Blanch, 2006, p. 693.
[56] J. L. García Balboa, A. M. Ruiz Armenteros y J. L. Mesa Mingorance,
«Evaluación de la incertidumbre de medidas en ángulos, distancias
y desniveles medidos con instrumentación topográfica,» Mapping
interactivo, 21 Septiembre 2011.
[57] R. E. Deakin, «A review of Least Squares theory applied to traverse
adjustment,» Australian Surveyor, vol. 36, nº 3, pp. 245-253, 1991.
Julián Garzón Barrero nació en Armenia
(Quindío), Colombia, el 16 de Abril de 1977.
Es Tecnólogo en Topografía por la Universidad
del Quindío (Col.) 1999, Ingeniero de Sistemas
por la Universidad San Martín (Col.) 2008,
Especialista en Geomática por la Universidad
Militar Nueva Granada (Col.) 2010, y Magister
en Sistemas de Información Geográfica por
la Universidad San Francisco de Quito (Ecu.)
2013.
Actualmente es profesor investigador en la
Universidad del Quindío y la Universidad La
Gran Colombia seccional Armenia, pertenece a los grupos de investigación
GEOIDE G62 y Gerencia de la tierra. Entre sus áreas de trabajo investigativo
se encuentran los Modelos Digitales de Elevación, Sistemas de Información
Geográfica y el diseño de mediciones topográficas.
Gonzalo Jiménez Cleves nació en Ibagué
(Tolima), Colombia, el 1 de Noviembre
de 1962. Es Topógrafo por la Universidad
del Quindío (Col.) 1985,
Especialista
en computación para la docencia por la
Universidad del Quindío y la Universidad
Antonio Nariño (Col.) 1989, y Magister en
Ingeniería de Sistemas por la Universidad del
Valle (Col.) 2004.
Actualmente es Director del Programa de
Topografía de la Universidad del Quindío,
además es profesor investigador en la Universidad del Quindío Armenia,
pertenece al grupo de investigación GEOIDE G62. Entre sus áreas de
trabajo investigativo se encuentran los Modelos Digitales de Elevación,
Sistemas de Información Geográfica, modelación de superficies terrestres
y el diseño de mediciones topográficas.
Universidad Católica de Pereira
60
Ximena Cifuentes Wchima. Es Ingeniera
Agroindustrial por la Universidad La Gran
Colombia - seccional Armenia (Col.) 2000,
Especialista en Fruticultura Tropical por la
Universidad del Tolima (Col.) 2002, Especialista
en pedagogía y docencia universitaria por la
Universidad La Gran Colombia – seccional
Bogotá 2004 (Col.) y Magister en desarrollo
sostenible y medio ambiente por la Universidad
del Manizales (Col.) 2010.
Actualmente es Decana de la Facultad
de Ingenierías de la Universidad La Gran Colombia Seccional Armenia,
además es profesora en la Universidad del Quindío Armenia, y es la líder
del grupo de investigación Gerencia de la Tierra. Entre sus áreas de trabajo
investigativo se encuentran la producción y desarrollo sustentable, gestión
tecnológica para la productividad y procesos de formación y gestión de
facultades de ingeniería.
Entre Ciencia e Ingeniería
61
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 61-69
Prototipo de potenciostato con aplicaciones en procesos
electroquímicos1
Potentiostat prototype with applications in electrochemical
processes
Protótipo de potenciostato com aplicações em processos
electroquímicos
B. Segura, F. N. Jiménez y L. R. Giraldo
Recibido Octubre 05 de 2015 – Aceptado Febrero 19 de 2016
Resumen — En este trabajo se presenta un prototipo de
potenciostato de bajo costo, que permite el control de las
variables eléctricas en la obtención de recubrimientos por
electrodeposición. Se empleó la metodología QFD (Quality
Function Deployment) como herramienta de planificación con el
fin de determinar las características que debe tener el prototipo
de potenciostato. El desarrollo de la investigación se basó en el
diseño e implementación de un prototipo de potenciostato que
permita trabajar 3 funciones básicas de electrodeposición a
saber: cronoamperometría, que consiste en mantener un voltaje
constante en un rango de 0 V a 20 V y mide la corriente entregada
al sistema; cronopotenciometría, que mantiene constante una
corriente en un rango de 0 A a 2 A y mide el voltaje (potencial) y
voltamperometría cíclica, la cual trabaja en los mismos rangos de
la cronoamperometría (0 V a 20 V) y excita el sistema mediante
señales de onda triangular, diente de sierra, senoidal, cuadrada,
entre otras. Estas características implementadas son comparadas
con las de un potenciostato comercial, demostrando su eficiencia
en el control de procesos electroquímicos.
1
Producto derivado del proyecto de investigación “Obtención y
caracterización de recubrimientos biocompatibles de hidroxiapatita por
procesos electroquímicos con potenciales aplicaciones en implantes”.
Presentado por los grupos de Investigación: Física y Matemática con énfasis
en la formación de ingenieros y el grupo de Automática de la Facultad de
Ingeniería de la Universidad Autónoma de Manizales.
B. Segura-Giraldo, docente Departamento de Electrónica Universidad
Autónoma de Manizales, (Colombia), Docente Universidad Nacional Sede
Manizales, (Colombia); email: [email protected]
F.N. Jiménez-García, docente del Departamento de Física y
Matemática de la Universidad Autónoma de Manizales, (Colombia),
Docente Universidad Nacional Sede Manizales, (Colombia); email:
[email protected]
L.R. Giraldo-Torres, docente del Departamento de Física y
Matemática de la Universidad Autónoma de Manizales, (Colombia), email:
[email protected]
Palabra
clav
e—
potenciostato,
electrodo,
cronoamperometría, cronopotenciometría, voltametría cíclica.
Abstract — This article presents a low cost prototype
potentiostat, which allows to control electrical variables in
obtaining coatings by electrodeposition. The QFD (Quality
Function Deployment) methodology was used as a planning
tool in order to determine the characteristics that should
have the potentiostat along the entire process of obtaining the
prototype. The development of the research was based on the
design and implementation of a prototype potentiostat that
can handle three basic functions of electrodeposition. One first
function, chronoamperometry lets to keep a constant voltage in
the range of 0 V to 20 V and measures the current delivered to
the system. A second function, chronopotentiometry maintains
constant a current in a range of 0 A to 2 A and measures the
voltage (potential). A third function, cyclic voltammetry, works
in the same ranges of chronoamperometry (0 V to 20 V) and
excites the system by signals as triangular wave, saw tooth, sine,
and square, among others. These implemented features were
compared to one conventional potentiostat, demonstrating its
efficiency in controlling electrochemical processes.
Key words— potentiostat, electrode, chronopotentiometry,
chronopotentiometry, cyclic voltammetry.
Resumo – Nesse trabalho se apresenta um protótipo de
baixo custo potentiostat, que permite o controle das variáveis
elétricas na obtenção de recobrimentos por eletrodeposição.
Empregou-se a metodologia QFD (Quality Function
Deployment) como ferramenta de planificação com o fim
de determinar as características que devem ter o protótipo
de um potentiostat. A pesquisa baseou-se na concepção e
implementação de um protótipo de um potentiostat, permitindo
trabalho 3 noções básicas de galvanoplastia, nomeadamente:
cronoamperometria, que consiste em manter uma voltagem
constante em um intervalo de 0V a 20V e mede a corrente
Universidad Católica de Pereira
62
entregada ao sistema; cronopotenciometria que mantem
constante uma corrente de um rango de 0A a 2ª e mede a
voltagem (potencial) e voltamperometria clinica, a qual trabalha
nos mesmos intervalos que a conoamperometria (0V a 20V) e
excita o sistema mediante sinais de onda triangular, dente de
serra, senoidal, quadrada, entre os outros. Estas características
implementadas são comparadas com as de um potensiostato
comercial, demostrando sua eficiência no controle de processos
eletroquímicos.
de un electrodo estacionario inmerso en una solución en
reposo y medir la corriente resultante. La señal de excitación
provoca una respuesta de corriente característica. Las cuatro
señales de excitación más comunes utilizadas se muestran
en la figura 1.
Palavras chave: potenciostato, eletrodo, cronoamperometria,
cronopotenciometria, voltametria cíclica.
I. Introducción
L
os procesos electroquímicos se basan en reacciones
de óxido-reducción, donde se transfieren electrones de
una sustancia a otra, teniendo en cuenta variables como las
eléctricas, el tipo de electrodo, la transferencia de masa, la
solución y otras variables externas como la temperatura. Uno
de los equipos más utilizados para los procesos electroquímicos
es el Potenciostato, el cual permite realizar control de algunas
variables determinadas en una celda electroquímica; el
potenciostato permite realizar control por cronoamperometría
y por cronopotenciometría.
En la mayoría de las aplicaciones los potenciostatos miden
el flujo de corriente entre el electrodo de trabajo y el electrodo
de referencia, siendo la variable controlada el potencial de la
celda y la variable medida la corriente generada tras el paso
de dicho potencial, como consecuencia de los procesos de
óxido reducción que sean o no producidos. Para mantener el
electrodo de trabajo a un potencial constante debe evitarse
que circule corriente por el electrodo de referencia debido
a que cambiaría su potencial y para contrarrestar este efecto
se sugiere que se incluya un electrodo auxiliar como tercer
electrodo, el cual haría las veces de generador o sumidero de
electrones en función del potencial oxidante o reductor que
se esté aplicando al electrodo de trabajo.
La energía entregada al sistema de electrodos es
programada por el potenciostato en función del tiempo y
puede ser implementado de diversas formas como barrido
lineal, cíclico, pulsado, en onda cuadrada, entre otras.
Uno de los tipos de barrido contribuye a la
voltamperometría [1], que se enmarca en un grupo de
métodos electroanalíticos en los que la información sobre
el analito se obtiene a partir de medidas de la intensidad de
corriente, como resultado del potencial aplicado y la medida
de impedancia en el sistema con condiciones que favorecen
la polarización de un electrodo indicador o de trabajo.
La voltamperometría se desarrolla a partir de la
polarografía, un tipo particular de variación de voltaje que fue
descubierta por el químico checoslovaco Jaroslav Heyrovsky
a principios de 1920 [2]. La voltamperometría cíclica
consiste en variar el potencial en un rango determinado,
Entre Ciencia e Ingeniería
Fig. 1 Señales de excitación en voltamperometría cíclica.
La Figura 1a, es la señal voltamperométrica clásica, el
barrido lineal, en la que la corriente continua aplicada a la
celda, aumenta linealmente en función del tiempo, en las
Fig. 1b y Fig. 1c se muestran dos señales de excitación
de impulsos. Las intensidades de corriente se miden a
diferentes tiempos durante la vida de estos impulsos. La
Fig. 1d es una onda de forma triangular, donde el potencial
varía entre dos valores, primero aumenta linealmente hasta
un potencial determinado, y después disminuye linealmente
con una pendiente del mismo valor numérico hasta su valor
original. Este proceso se puede repetir numerosas veces,
registrándose la intensidad de corriente en función del
tiempo. La voltamperometría cíclica se utiliza normalmente
para proporcionar información cualitativa sobre procesos
electroquímicos en diversas condiciones y constituye una
herramienta importante para el estudio de los mecanismos
y de las velocidades de los procesos de oxidación/reducción.
Con el fin de diseñar un dispositivo de control y adquisición
de datos, es necesario conocer acerca de los instrumentos que
se encuentran en el mercado para dicho fin y de los adelantos
tecnológicos que se están utilizando para el desarrollo de
procesos electroquímicos. Desde la mitad del siglo XX se han
estudiado, planteado y depurado los métodos para ejecutar las
pruebas electroquímicas lo que ha conllevado al desarrollo de
potenciostatos cada vez más robustos y precisos [3].
Se observa una tendencia mundial en diseñar sistemas
completos que permiten realizar no solamente la prueba
electroquímica, sino también la adquisición y procesamiento
de los datos obtenidos. La mayoría de estos equipos
permiten la comunicación con dispositivos de cómputo para
la visualización y análisis de los resultados por parte del
usuario [4].
63
En general, los fabricantes de potenciostatos modernos
buscan crear equipos que se destaquen por tener alta
precisión, bajo consumo de energía, peso reducido, sencillez
en la interfaz de usuario y la capacidad de manejar tasas de
escaneo.
Algunos de los dispositivos utilizados actualmente han sido
diseñados por las empresas Princeton Applied Research, BioLogic Science Instruments y Gamry Instruments y presentan
las características adecuadas para este tipo de aplicaciones y
pueden superar fácilmente los miles de dólares; es por esto
que se hace necesario desarrollar prototipos que permitan
realizar algunas de las funciones de estos, a un bajo costo.
El objetivo de este trabajo es el desarrollo de un prototipo
de potenciostato tanto en hardware y software que permita
obtener características similares a las de potenciostatos
comerciales cuando son usados para obtener recubrimientos
mediante electrodeposición.
I. Metodología
A continuación, se despliega la propuesta del potenciostato
mediante la metodología QFD (Quality Function
Deployment), que es una herramienta de planificación que
desarrolla “una sistemática para transmitir las características
que deben tener los productos a lo largo de todo el proceso
de desarrollo”, metodología propuesta por Yoji Akao [5]. La
metodología QFD también se conoce popularmente “como
la voz del cliente” (debido a su filosofía de transmisión de
requisitos) y también como “la casa de la calidad” (debido
al aspecto de una de sus construcciones gráficas). La QFD
sirve esencialmente para: identificar las necesidades y
expectativas de los clientes, tanto externos como internos,
priorizar la satisfacción de estas expectativas en función
de su importancia, focalizar todos los recursos, humanos
y materiales, en la satisfacción de dichas expectativas, si
se alcanzan los objetivos anteriores, debe redundar en:
reducción de los tiempos de desarrollo de nuevos productos
y servicios, optimización del producto o servicio para las
expectativas del cliente objetivo, más eficacia: se concentran
los esfuerzos en “hacer lo que hay que hacer” y más
eficiencia: se reducen los costos por fallos.
Para el desarrollo de la QFD en el diseño del prototipo
de potenciostato, el proceso se divide en 4 etapas: clarificar
y definir la idea, determinar las funciones y sus estructuras,
buscar los principios de solución y sus variables y por último
dividir en módulos realizables.
A. Etapa I: clarificar y definir la idea
1) Especificaciones del producto:
ü
Se requiere diseñar un dispositivo que permita mantener
constante una variable eléctrica dada (potencial o
corriente)
ü
El controlador del dispositivo debe tener una interfaz
gráfica de fácil manejo.
ü
Debe permitir el manejo de corrientes de hasta 2 A y
voltajes de hasta 20 V.
ü
Debe tener una alarma que indique el desfase de estos
rangos y que automáticamente apague el dispositivo
para su protección.
ü
Debe estar construido en componentes electrónicos
robustos que aseguren la uniformidad en el potencial
entregado.
ü
Debe permitir censar los potenciales dentro del sistema
en tiempo real.
Las preguntas comunes acerca de funcionamiento del
dispositivo fueron:
ü
¿Con qué frecuencia se usará el
dispositivo?
• Se usaría constantemente mientras se realizan las
pruebas de procesos electroquímicos.
ü
¿Sería un dispositivo móvil o sólo para uso en el
laboratorio?
• Aunque puede usarse en cualquier parte, la idea
es que sea usado en un laboratorio de materiales
por personal capacitado.
ü
¿Qué tipo de fuente de alimentación tiene?
• Fuente con alimentación de 110 V con capacidad
de entregar los potenciales requeridos.
ü
¿Requiere refrigeración?
• Aunque no es necesaria, se sugiere para evitar
posibles recalentamientos en el dispositivo.
ü
¿En qué formato transmite los datos
obtenidos?
• Formato de datos ASCII
ü
¿Requiere algún dispositivo adicional para transmitir
datos al computador?
• Tarjeta de adquisición de datos con conexión
USB.
ü
¿Tiene la capacidad de medir diferentes variables en el
sistema?
• Corriente, voltaje, resistencia y se pueden adaptar
diferentes tipos de sensores para tener un control
total sobre el sistema
ü
¿Qué variables se pueden controlar desde
la interfaz?
• Modo en el cual se desea trabajar
(cronoamperometría,
cronopotenciometría
o voltamperometría cíclica), cantidad de
potencial (potencial o corriente), duración del
proceso electroquímico, lazo abierto o lazo
cerrado.
De las preguntas anteriores se concluyó que los
potenciostatos comerciales y de marcas reconocidas en el
mercado son muy costosos tanto en hardware como software,
es por esto que surge la importancia de implementar este
tipo de dispositivos a precios más asequibles y que permitan
realizar las actividades básicas de electrodeposición para
la investigación en materiales. Además, del desarrollo de
una interfaz hombre – máquina que permita interactuar con
Universidad Católica de Pereira
64
las variables controladas por el potenciostato y guardar los
datos obtenidos en el proceso para un posterior análisis.
Al ser un dispositivo de uso frecuente, debe presentar un
sistema robusto para minimizar las posibles fallas tanto del
dispositivo como humanas.
2) Los “QUÉ”
ü
El dispositivo permite trabajar a diferentes rangos en
las variables eléctricas
ü
El dispositivo admite realizar experimentos sin
electrodo de referencia
ü
El dispositivo es liviano
ü
El dispositivo permite una comunicación en tiempo
real y confiable con el computador
ü
El dispositivo protege al usuario además de orientarlo
para su manejo contribuyendo a su propia protección
B. Etapa II: determinar las funciones y sus estructuras
En esta etapa se analizan las posibles soluciones o
mecanismos que sirvan para cumplir con los requerimientos:
ü
El sistema debe permitir una conexión fácil de los
electrodos.
ü
Debe ser fabricado en forma óptima para reducir
componentes, costos, tamaño y peso.
ü
Comunicación cableada hacia el computador,
agregando la componente de tiempo en el computador.
ü
Transmisión de datos en tiempo real hacia el
computador, generando las gráficas en tiempo real de
la medida del dispositivo.
ü
Diseño agradable a la vista.
ü
Marcas en los lugares de conexión que orienten el uso
correcto del dispositivo.
ü
Se requiere una interfaz gráfica en el computador para
capturar, graficar y registrar los datos recolectados.
ü
Debe tener aislamiento entre electrodos para evitar la
contaminación de la información.
Tomando la anterior información se procede a obtener los
“CÓMOS” o características que debe tener finalmente este
dispositivo
1. El dispositivo es liviano.
2. El dispositivo transmite los datos en tiempo real en
forma serial por cable USB.
3. El software de adquisición y control se hace a través
de una interfaz simple en la plataforma de LabView®.
la cual permite tener acceso a las variables del sistema.
4. Medición constante de las variables y actualización
inmediata de ajuste de potencial con datos adquiridos.
5. Marcas visibles informativas.
C. Etapa III: buscar principios de solución y sus
variantes
En esta etapa se muestra la solución a las características
del dispositivo (Tabla I
Tabla i.
Entre Ciencia e Ingeniería
No.
1
2
Solución a características del dispositivo
Característica
Cómo hacerlo
Métrica
Ancho: 27 cm
Liviano y
Base en lámina de acero
Alto: 10 cm
resistente
inoxidable
Profundo: 39 cm
Transmisión
Cable USB
de datos en
Cableado serial USB
estándar de 350
tiempo real
cm
3
Interfaz
simple
Interfaz gráfica en el
programa LabView®
4
Medición
constante de
variables
Tarjeta de adquisición
de datos NI-USB 6009
de la empresa National
Instruments©
Ancho: 8 cm
Alto: 8 cm
Profundo: 2 cm
5
Marcas
visibles
informativas
Calcomanías en pines
para conexión de los
electrodos
Ancho: 1 cm
Alto: 0,5 cm
D. Etapa IV: dividir en módulos realizables
Se especifica la solución dependiendo del área
correspondiente, desde el punto de vista del usuario y
teniendo en cuenta las siguientes características:
üFuncionamiento (A)
üRobustez (B)
üCosto (C)
üReciclaje (D)
üManufactura (E)
üMantenimiento (F)
üPuesta en marcha (G)
üEnsamble (H)
De esta forma se tiene en cuenta el ciclo de vida del
producto.
En el siguiente cuadro sólo se dará la importancia a
cada característica del producto, con base en cada uno de
los parámetros anteriores, para de esta forma saber en
qué se debe hacer énfasis en el momento de desarrollar el
dispositivo. La importancia se dará con una calificación en la
escala 1 a 10, donde 1 es menos importante y 10 lo máximo
de importancia del parámetro.
Tabla II.
Relevancia de las características
Como se puede apreciar, las características más importantes
65
son funcionamiento, robustez, costo y puesta en marcha, estos
son los factores que se deben contemplar con mayor interés
a la hora de desarrollar el plan de ejecución del dispositivo.
I. Resultados
La implementación del potenciostato se conforma de dos
fases principales: hardware y software. La fase del hardware
está compuesta por el sistema de control, el sistema de
potencia y el sistema de adquisición de datos. A su vez, el
sistema de control y el sistema de adquisición de datos hacen
parte de la fase del software.
El sistema de control y adquisición de datos para el
potenciostato, permite generar un potencial variable con
corriente constante, o permite generar un potencial constante
con corriente variable, para generar estímulos en procesos
electroquímicos.
Teniendo en cuenta las necesidades encontradas en la
metodología QFD para el desarrollo del potenciostato, se
tomaron como características principales del diseño del
hardware:
ü
Salida de potencial máximo: 20 V DC
ü
Salida de corriente máxima: 2 A
ü
Impedancia de salida: igual o menor a 1 Ω
ü
Impedancia de entrada: igual o mayor a 10 MΩ
ü
Resolución del sistema de adquisición: 14 bits
ü
Velocidad de muestreo en el sistema de adquisición.
48 kS/s para 8 canales.
ü
Canales análogos de entrada al sistema de adquisición:
8
ü
Resolución del sistema de control: 12 bits
ü
Canales análogos de entrada al sistema de control: 4
ü
Todo el sistema es controlado por un microcontrolador
de 32 bits de última generación Cortex-M.
ü
Se realiza comunicación con PC mediante puerto USB
No aislado.
Fig. 2. Diagrama de bloques potenciostato.
F. Módulo de control
El sistema de control (Figura 4.) efectúa todo el mando
del proceso de forma autónoma, recibiendo las señales
de ajuste desde el módulo de adquisición (Figura 3.).
La tarjeta de control STM32F4-Discovery es instalada
sobre una tarjeta que realiza todo el acondicionamiento
de las señales análogas a procesar.
Las funciones realizadas son:
ü
Configura el oscilador del sistema para operar a 168
MHz, según cristal de 8 MHz.
ü
Configura los puertos de entrada - salida.
ü
Configura el temporizador, para generar retardos
programados.
ü
Configura el puerto, para realizar lectura de los canales
análogos.
ü
Ajusta la resolución del convertidor ADC a 12 bits.
ü
Genera una salida análoga.
ü
La resolución del generador es de 12 bits, realizando
actualizaciones por software.
E. Módulo de Potencia
Los materiales principales utilizados en la construcción
del módulo de potencia fueron:
ü
Acero inoxidable
ü
Fuente industrial de 24 V DC y 3 A
ü
Tarjeta desarrollada en fibra de vidrio simple capa,
que contiene el sistema de control, el sistema de
acondicionamiento de señales y la unidad de potencia
ü
Cable USB tipo B.
Fig. 3. Distribución de módulos en potenciostato.
En la Figura 2 se puede observar el diagrama de desarrollo
de hardware del potenciostato.
Universidad Católica de Pereira
66
Tabla III.
Diagrama de datos para visualización en interfaz.
Se desarrolla adicionalmente una interfaz para realizar el
control del potenciostato mediante voltamperometría cíclica,
permitiendo entregar al proceso señales de onda triangular
(Figura 6), senoidal (Figura 7) y cuadrada (Figura 8); en esta
interfaz, además del control del tiempo de electrodeposición
y la cantidad de potencial, se ingresan los ciclos por segundo
y frecuencia de las señales de excitación.
Fig. 4. Módulo de control potenciostato.
G. Módulo de adquisición de datos
El módulo de adquisición de datos (Figura 4.) se compone
de un sistema de adquisición NI USB-6009, el cual realiza
una toma de datos en tiempo real durante el transcurso del
proceso electroquímico y guarda los datos en formato *.tdms
a una velocidad de hasta 48 kS/s.
Fig. 6. Señal Onda Triangular
El desarrollo de una interfaz en el programa LabView®
(Figura 5) permite al usuario determinar si desea trabajar
con cronoamperometría o cronopotenciometría, controlando
el tiempo de deposición y el porcentaje de operación del
modo elegido (cantidad de potencial o corriente), permite
trabajar en lazo abierto o lazo cerrado y finalmente, elegir
la ubicación del archivo *.tdms en el cual se guardarán los
datos obtenidos durante el proceso.
Fig. 7. Señal onda senoidal.
Fig. 5. Interfaz Gráfica en LabView®
En la tabla 3 se observa el color de cada una de las ondas que
se visualizan en la interfaz gráfica, además de los valores
equivalentes en porcentaje a corriente y voltaje:
Entre Ciencia e Ingeniería
Fig. 8. Señal onda cuadrada.
Finalmente, con los datos obtenidos en los procesos de
voltamperometría cíclica, se pueden obtener las curvas de
histéresis características de los procedimientos desarrollados,
graficando los voltajes en el electrodo de trabajo con respecto
a las corrientes que se presentaron durante el proceso.
67
Los análisis de voltamperometría cíclica permiten
observar los cambios en la transferencia de iones y sugieren
valores de voltajes ideales de trabajo; para el ejemplo de
aplicación, en la obtención de recubrimientos de fosfatos de
calcio sobre acero 316L se encontró un rango de voltajes
ideales de trabajo entre -0,5 V a -3,0 V, estos resultados se
pueden evidenciar en la figura 10, potenciostato UAM y la
figura 11, potenciostato comercial.
Fig. 9. Voltamperometría cíclica.
H. Aplicación del prototipo de potenciostato en un
proceso de electrodeposición
Una de las aplicaciones del potenciostato desarrollado es
la obtención de recubrimientos biocompatibles de fosfatos
de calcio sobre acero 316L. La obtención de biomateriales
con las características adecuadas para la restauración
o sustitución del tejido óseo en los seres humanos, en
el recubrimiento de metales como el titanio puro y sus
aleaciones es uno de los grandes temas de investigación en
el campo de los biomateriales, los fosfatos de calcio hacen
parte de este gran grupo y durante los últimos años se ha
estudiado la forma de obtener una respuesta apropiada con
respecto al medio fisiológico.
El estudio de la biocompatibilidad de los fosfatos de calcio
sobre el cuerpo humano ya ha sido tema de investigación
[6], comprobándose su biocompatibilidad debido a que
son unos de los principales componentes de los huesos; las
características de biocompatibilidad [7] se basan en que no
debe inducir la separación, reacción inflamatoria o de cuerpo
extraño, como también provocar una respuesta del sistema
inmunológico, no debe ser tóxico originalmente ni los
productos de su descomposición, no debe ser bioabsorbible
al extremo de su destrucción en el medio biológico, ni debe
alterar genéticamente las células adyacentes.
Los métodos utilizados en la actualidad, para obtener
los recubrimientos de estos materiales cerámicos, incluyen
equipos sofisticados, protocolos de elevados costos y
grandes cantidades de energía tales como pulverización por
plasma y ablación laser entre otras. Otras técnicas como solgel [8] y electrodeposición [9] se están empleando debido
no sólo a su bajo costo y simplicidad, sino porque además,
permiten obtener materiales a bajas temperaturas con buena
cristalinidad y baja solubilidad en fluidos corporales.
Como una aplicación del desempeño del potenciostato
desarrollado en la Universidad Autónoma de Manizales,
con el apoyo de la empresa Gamatec S.A., se realizaron
procesos de electrodeposición, los cuales presentan
resultados comparables con un potenciostato comercial.
Las funciones principales en las que se basó el ejemplo de
aplicación fueron las curvas de voltamperometría cíclica y la
cronoamperometría.
Fig. 10. Voltamperometría cíclica potenciostato UAM.
Fig. 11. Voltamperometría cíclica potenciostato comercial.
Teniendo en cuenta el análisis realizado mediante
voltamperometría cíclica se decide trabajar con un
potencial de crecimiento de la película de -1.2 V tanto en
el potenciostato comercial como en el implementado,
obteniendo películas de características similares tanto en
adherencia como en uniformidad.
Las películas obtenidas son sometidas a caracterización
estructural mediante Espectroscopia Infrarroja por
Transformada de Fourier (FTIR) (Figura 12), en la cual se
pueden observar bandas entre 500 y 600 cm-1 asignadas
a modos de flexión asimétrica (O-P-O v4) y entre 1000 y
1100 cm-1 que de acuerdo a la literatura son características
de apatita, y están asociadas a modos vibracionales de
estiramiento asimétrico (P-O v3). Una banda alrededor de
980 cm-1 asociada a modos vibracionales de estiramiento
simétrico (P-O v1) y otra alrededor de 863 cm-1 asignada
a modos vibracionales de grupos (HPO4 v5), se evidencia
además una banda alrededor de 3500 cm-1, asignada a modos
vibracionales de estiramiento de agua absorbida (O-H-, H2O)
y un pico en 1635 cm-1 asociada a flexión de grupos H-O-H
[8,9]. Adicionalmente, se presenta un desdoblamiento en dos
picos de las bandas asociadas a los iones PO43- en 525 cm-1,
575 cm-1 y un desdoblamiento en tres picos para 978 cm-1,
Universidad Católica de Pereira
68
1058 cm-1, 1127 cm-1, este desdoblamiento es característico
de la presencia de la forma de apatita DCPD (Dicalcio Fosfato
Dihidratado o DCPD) identificado en ambos espectros.
teniendo en cuenta las herramientas y materiales con los
que se cuenta, y llevar de manera planeada un proyecto a la
realidad.
El uso del potenciostato permite tener el control sobre
los procesos electroquímicos desarrollados, interviniendo en
variables del proceso tales como el tiempo, el potencial, la
corriente, el número de repeticiones de la voltamperometría
cíclica, entre otras.
La obtención de las curvas de voltamperometría y de las
características de los procesos electroquímicos realizados con
el prototipo de potenciostato desarrollado en la Universidad
Autónoma de Manizales y con el potenciostato comercial,
permitieron evidenciar la calidad del equipo construido, al
obtener resultados comparables.
Fig. 12. Análisis FTIR de películas crecidas a -1,2V.
Como complemento a la caracterización FTIR se realiza
caracterización estructural mediante Difracción de Rayos
X (XRD) (Figura 13), en la cual se pueden observar picos
asociados a la fase DCPD (ICDD: 72-1240), y algunos picos
para los sustratos de acero 316L.
La función cronoamperométrica de ambos potenciostatos
demostró ser apta para la obtención de fosfatos de calcio
sobre sustratos de acero 316L, los cuales tienen potenciales
aplicaciones en implantes.
Agradecimientos
Los autores de este trabajo agradecen a la Universidad
Autónoma de Manizales, a los grupos de investigación en
automática y física y matemáticas con énfasis en la formación
de ingenieros, a la empresa Gamatec S.A. por el apoyo
constante en el desarrollo del prototipo del potenciostato y a
la Universidad Nacional de Colombia sede Manizales por su
disponibilidad para la caracterización de las películas.
Referencias
Fig. 13. Análisis XRD de películas crecidas a -1,2V.
Lo anterior demuestra un adecuado funcionamiento del
prototipo de potenciostato desarrollado en la Universidad
Autónoma de Manizales, a la hora de obtener recubrimientos
de fosfatos de calcio, en comparación con potenciostatos
comerciales. Estas características serán objeto de análisis en
un trabajo posterior.
I. Conclusiones
Se desarrolló un prototipo de potenciostato usando la
metodología QFD, la cual permitió identificar las necesidades
y expectativas del equipo, además, de dar solución a éstas
Entre Ciencia e Ingeniería
[1] Skoog, Leary. Análisis Instrumental. Vol I. Ed. Mc Graw Hill. Sexta
Edición. 2008
[2] J. Heyrovsky, “Practical Applications of the Polarographic Method in
Chemistry” Enlarged Russian Edition. 1937.
[3] D. Monroy, S. Zabala, “Repotenciación y actualización de un
potenciostato galvanostato princeton modelo 363 para el laboratorio
de corrosión de la escuela de ingeniería metalúrgica y ciencia de
materiales”, Tesis de maestría dirigida por A. Acevedo, D. Peña,
Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de
Santander, 16, sep, 2005.
[4] J. Amaya, “Instrumentación electroquímica: Fundamentación teórica
para la construcción de prototipos para el laboratorio de corrosión
de la escuela de ingeniería metalúrgica”, Tesis de maestría dirigida
por J. Barrero, C. Vásquez, Facultad de Ingenierías Físico-Mecánicas,
Universidad Industrial de Santander, 29, ene, 2009.
[5] L.-K. Chan and M.-L. Wu, “Quality function deployment: A literature
review,” Eur. J. Oper. Res., vol. 143, no. 3, pp. 463–497, Dec. 2002.
[6] D. Gopi, J. Indira, and L. Kavitha, “A comparative study on the direct
and pulsed current electrodeposition of hydroxyapatite coatings on
surgical grade stainless steel,” Surf. Coatings Technol., vol. 206, no.
11–12, pp. 2859–2869, Feb. 2012.
[7] D. Gopi, S. Ramya, D. Rajeswari, and L. Kavitha, “Corrosion
protection performance of porous strontium hydroxyapatite coating
on polypyrrole coated 316L stainless steel,” Colloids Surfaces B
Biointerfaces, 2013.
[8] D. Gopi, S. Ramya, D. Rajeswari, and L. Kavitha, “Corrosion
protection performance of porous strontium hydroxyapatite coating
on polypyrrole coated 316L stainless steel,” Colloids Surfaces B
Biointerfaces, 2013.
[9] M. Asadi-Eydivand, M. Solati-Hashjin, A. Farzadi, and N. A.
A. Osman, “Artificial neural network approach to estimate the
composition of chemically synthesized biphasic calcium phosphate
powders,” Ceram. Int., vol. 40, no. 8, pp. 12439–12448, Sep. 2014.
[10] X. Zhang, F. Geng, X. Huang, and M. Ma, “Acceleration of the
69
initial phase transformation of mineralization by phosvitin,” J. Cryst.
Growth, vol. 409, pp. 44–50, Jan. 2015.
Belarmino Segura Giraldo nació
en Manizales, Caldas, Colombia, el
24 de Enero de 1968. Se graduó en la
Universidad Nacional de Colombia sede
Manizales como Ingeniero Electricista,
Especialista en Docencia Universitaria,
realizó su Magister en Ciencias Físicas y
Doctor en ingeniería-Línea Automática
de la Universidad Nacional de Colombia,
actualmente se desempeña como docente en el departamento de
Electrónica y Automatización de la Universidad Autónoma de Manizales
y en la Universidad Nacional de Colombia sede Manizales como docente
catedrático titular en el Departamento de Física y Química. Sus principales
intereses de investigación son el procesamiento digital de registros, las
técnicas espectroscópicas de impedancia eléctrica y óptica de fluorescencia,
la biofísica, los procesos electroquímicos, entre otros.
Francy Nelly Jiménez García nació en
Manizales, Caldas, Colombia, el 1 de Marzo de
1970. Se graduó en la Universidad Nacional de
Colombia en el pregrado de ingeniería química,
posteriormente realizó la especialización en
computación para la docencia en la Universidad
Antonio Nariño. Alcanzó los títulos de Magister
en Ciencias Física y Doctora en Ingeniería
también en la Universidad Nacional, Sede
Manizales.
Ejerció profesionalmente en varias
Universidades de su ciudad Natal tales como: la
Universidad de Caldas y la Universidad Antonio
Nariño. Actualmente es docente titular en dedicación de catedra de la
Universidad Nacional Sede Manizales y docente titular de tiempo completo
en la Universidad Autónoma de Manizales (UAM). Cuenta con 22 años de
experiencia docente 20 de ellos a nivel universitario. Entre sus campos de
interés están los procesos de enseñanza y aprendizaje tanto de física como
de la matemática así como el estudio de materiales de ingeniería.
La ingeniera Jiménez ha sido beneficiaria de becas en algunas de las
Universidad donde ha estudiado así como de Colciencias para adelantar sus
estudios de posgrado. Recibió el título de mejor docente en la facultad de
ingenierías de la Universidad Autónoma de Manizales en el 2008 y Mención
por sus logros académicos e investigativos en el 2015. Se ha desempeñado
como coordinadora del departamento de física y Matemáticas, como
docente e investigadora del mismo y pertenece al grupo de investigación
en física y matemática con énfasis en la formación de ingenieros, el cual
se encuentra en categoría B en COLCIENCIAS, al que actualmente lidera.
Laura Rocío Giraldo Torres nació
en Cali, Colombia el 21 de junio de 1992.
Se graduó como Ingeniera Biomédica en la
Universidad Autónoma de Manizales. Es
estudiante actualmente de la Maestría en
Bioinformática y Biología Computacional con
una beca otorgada por la institución.
Ejerció profesionalmente como joven
investigadora durante los dos años siguientes a
su promoción de pregrado y labora actualmente
en la Universidad Autónoma de Manizales
como docente adscrita al Departamento
de Física y Matemática, perteneciendo activamente a los grupos de
Investigación en Automática y en Física y Matemática con énfasis en la
formación de Ingenieros.
Universidad Católica de Pereira
70
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 70-80
Métodos para determinar el factor de intensidad de esfuerzos1
Methods to determine the stress intensity factor
Métodos para determinar o fator de intensidade de esforços
J. A. Grajales y L. V. Vanegas
Recibido Agosto 22 de 2015 – Aceptado Febrero 19 de 2016
Resumen— En este trabajo se presenta una breve revisión de
los métodos existentes para determinar el factor de intensidad
de esfuerzos. Se presentan algunos aspectos históricos de la
mecánica de fractura. Luego se exponen algunos de los métodos
clasificándolos en tres grupos: métodos analíticos, de elementos
finitos y experimentales. Para cada grupo se presentan algunos
métodos, su desarrollo y características principales, incluyendo
algunas ventajas, desventajas y restricciones. Se evidencian las
razones de la comunidad científica de avanzar en la aplicación
de los elementos finitos, debido a su enorme versatilidad, y se
aprecia el enorme esfuerzo que implica aprender, dominar y
aplicar cualquiera de los métodos.
Palabras Clave— factor de intensidad de esfuerzos, mecánica
de fractura, métodos analíticos, método de elementos finitos,
métodos experimentales.
Abstract— This paper presents a brief review of the existing
methods to determine the stress intensity factor. Some historical
aspects of fracture mechanics are presented. Then some of the
methods are described, classifying them into three groups:
analytical, finite element, and experimental methods. For
each method, its characteristics, advantages, disadvantages,
and restrictions are discussed. The reasons for the scientific
community to advance in the application of the finite element
method, due to its great versatility, are evident. It is clear that
learning, mastering, and applying any of the methods entails a
great effort.
1
Este trabajo es producto del proyecto de investigación “Modelado de
crecimiento de grietas por fatiga por ludimiento”, perteneciente al grupo de
investigación Procesos de Manufactura y Diseño de Máquinas, vinculado
a la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de
Pereira.
J.A. Grajales, Ingeniero Mecánico, Candidato a M.Sc. en Ingeniería
Mecánica y Profesor Catedrático, Facultad de Ingeniería Mecánica,
Universidad Tecnológica de Pereira, Pereira (Colombia); correo e.:
[email protected]
L.V. Vanegas, Ingeniero Mecánico, M.Sc., Ph.D., Profesor Titular de
la Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira,
Pereira (Colombia); correo e.: [email protected]
Entre Ciencia e Ingeniería
Key words— stress intensity factor, fracture mechanics,
analytical methods, finite element method, experimental
methods.
Resumo – Neste trabalho se apresenta uma breve revisão dos
métodos existentes para determinar o fator de intensidade de
esforços. Apresentam-se alguns aspectos históricos da mecânica
de fratura. Logo se expõem alguns métodos classificandoos em três grupos: métodos analíticos, de elementos finitos e
experimentais. Para cada grupo apresentam-se alguns métodos,
seu desenvolvimento, e características principais, incluindo
algumas vantagens, desvantagens e restrições. Evidenciam-se
as razões da comunidade cientifica de avançar na aplicação
dos elementos finitos, devido a sua enorme versatilidade e se
aprecia o enorme esforço que implica aprender, dominar e
aplicar qualquer dos métodos.
Palavras chave: fator de intensidade de esforços, mecânica
de fratura, métodos científicos, método de elementos finitos,
método de elementos experimentais.
E
I. Introducción
n el desarrollo de estructuras y elementos de
máquinas se desea siempre garantizar el adecuado
funcionamiento de todas las piezas. Es por esto que se
desarrollan metodologías de diseño con las cuales se pueda
calcular un valor de carga a aplicar, que se pueda comparar
con un valor límite (definido por el material y la geometría),
asegurando el diseño realizado.
A principios del siglo pasado se pensaba que el diseño
basado en los esfuerzos de operación de los elementos,
comparado con los esfuerzos límite de los materiales,
era condición suficiente para su operación satisfactoria.
Sin embargo, han ocurrido diversos accidentes (fallas
prematuras) con elementos que se pensaban bien diseñados.
Este es el caso del buque Titanic (1912), un tanque de melaza
en Boston que estalló por la presión de la melaza (1919),
71
muchos barcos de la época de la 2da guerra mundial que se
partieron en dos (1940s) y tres aviones Comet británicos
que se desintegraron en el aire en menos de un año (19531954). En muchos casos, las fallas ocurrían en presencia
de pequeñas deformaciones y poca fluencia en las zonas
de falla, es decir, tenían comportamiento frágil [1]. Éstos y
muchos otros incidentes motivaron el desarrollo de lo que
hoy se conoce como mecánica de fractura [2]. A manera
de ejemplo, la Fig. 1 muestra una placa plana agrietada
de material dúctil sometida a un esfuerzo de tracción. En
muchos casos, la fractura total puede ocurrir con una
pequeñísima deformación plástica, la cual se presenta en las
cercanías a la punta de la grieta. Por tanto, el material parece
tener una fractura frágil.
para la determinación del factor de intensidad de esfuerzos
en diferentes piezas y solicitaciones de carga, siguiendo
la mayor clasificación que los agrupa: métodos analíticos,
métodos numéricos (como el análisis de elementos finitos) y
métodos experimentales.
Por otro lado, [5] clasifica los métodos de acuerdo a su
complejidad y tiempo requerido para su aplicación (Tabla
I). Para geometrías sencillas, la primera opción es recurrir
a los compendios [6,7]. Los métodos de la clase II son
relativamente simples, proporcionan una estimación rápida
de K y aportan una aproximación de los principios de la
mecánica de fractura; en [5] se presenta una descripción de
estos métodos.
Tabla I
Algunos métodos para evaluar k [5]
Clase I
Compendios
a
Zona
plástica
Fig. 1. Placa plana con grieta de borde de tamaño a sometida a un esfuerzo
remoto s.
En la mecánica de fractura se trata de explicar el
comportamiento de un material agrietado cuando está
sometido a esfuerzos. Se pretende explicar por qué un
material, en aparentemente buenas condiciones, presenta
falla prematura en condiciones de carga inferiores a los
límites de fluencia y rotura, reconociendo que todos los
materiales tienen pequeñas imperfecciones que actúan como
grietas, modificando la distribución de los esfuerzos [3].
Es así que aparece un nuevo criterio de falla que considera
los defectos mecánicos, presentes en los materiales de
ingeniería.
La mecánica de fractura muestra que los parámetros
tenacidad del material, tamaño de grieta y nivel de esfuerzo
pueden ser relacionados para predecir la posibilidad de una
fractura frágil [3].
El parámetro que caracteriza los esfuerzos en la zona que
rodea la punta (o mejor, el frente) de una grieta se denomina
factor de intensidad de esfuerzos K y depende de la
geometría de la pieza y del caso de carga al que está sometida
[1,4]. La determinación de este parámetro tiene un nivel de
complejidad elevado y ha sido abordado en las últimas cinco
décadas por diferentes investigadores, siguiendo diferentes
caminos para tratar de facilitar el proceso.
En el presente documento se pretende realizar una
recopilación de algunos de los métodos que se utilizan
Clase II
Superposición M
Concentrador de
esfuerzos
Distribución local de
esfuerzos
Funciones de Green
Funciones de peso
Composición de
contornos
Clase III
étodo de colocación
Método de elementos finitos
(FEM)
Método de elementos finitos
extendido (X-FEM)
Método de elementos de
contorno (BEM)
Método de colocación
discontinua
Método de las funciones de borde
Método de fuerzas másicas
Los métodos de la clase III son más complejos y requieren
de una solución numérica. El método de colocación fue
popular en los años 60, pero en los años 70 comenzó a
dominar el Método de Elementos Finitos (FEM) [8-14],
debido a su versatilidad y simplicidad. Hoy en día se está
usando mucho la variante X-FEM, la cual simplifica el
mallado (especialmente para problemas de crecimiento de
grieta) [15].
El método de elementos de contorno (BEM) surgió como
una poderosa alternativa por sus menores exigencias en
cuanto a discretización. El método de las fuerzas másicas
y el de las funciones de borde tienen ciertas similitudes al
ser comparadas con BEM. El método de las líneas aplica
técnicas de solución de ecuaciones diferenciales ordinarias.
[16]
II. Conceptos introductorios
Los primeros resultados que evidenciaban el efecto de
la concentración de esfuerzos en grietas fueron obtenidos
por Inglis [17], después de analizar el efecto de la presencia
de agujeros elípticos de longitud 2a y ancho 2b en placas
planas (Fig. 2), con la condición de que el agujero no es
influenciado por las condiciones de contorno (la placa es
mucho más grande que el agujero). Para estas condiciones, el
valor del esfuerzo en el extremo del eje mayor está dado por
Universidad Católica de Pereira
72
2a
1+
,
A =
b
(1)
donde s es el esfuerzo remoto aplicado. Si esta ecuación es
llevada al extremo para simular una grieta, es decir, si el eje
menor de la elipse, b, tiende a cero, el valor del esfuerzo se
vuelve infinito.
y
r
2b
!
x
A
2a
Sin embargo, fue Irwin, quien a partir de la teoría de la
elasticidad, obtuvo expresiones para los esfuerzos en la
cercanía de una grieta, en coordenadas polares (r,q) con
centro en el frente de grieta:
K
2 r
I
fij ( ),
ij =
donde r es la distancia del punto de análisis a la punta de la
grieta, q es el ángulo que forma r con respecto al eje x (el
cual va en la dirección de la grieta) y fij es una función. Es así
que se introduce el término factor de intensidad de esfuerzos
KI (el subíndice indica el modo de deformación de grieta:
modo I o modo de abertura o tracción, que es el más común
en la práctica y por ende es el que más atención ha recibido).
El factor K depende de la geometría del elemento y del tipo
y magnitud de la carga y está dado por:
KI =
a,
Fig. 2. Placa infinita con agujero elíptico pasante.
Este resultado causó preocupación en la comunidad
científica, dado que significaba que en la presencia de
grietas, hasta un esfuerzo infinitesimal lograría dañar
cualquier material. Motivado por esto, Griffith [18]
desarrolla una teoría de la fractura basada en energía en vez
de la concentración de esfuerzos [17]; es así que en 1921
estableció la teoría que sustenta y dio origen a la mecánica
de fractura: un crecimiento de grieta puede ocurrir si la
energía requerida para formar un incremento de grieta da
puede ser justamente liberada por el sistema, es decir, si el
proceso origina una disminución de la energía total o ésta
permanece constante. A partir de la relación entre el cambio
en la energía superficial del cuerpo (propagación de la grieta)
y la energía disponible, Griffith obtiene expresiones para
el esfuerzo de rotura para una placa infinita con una grieta
pasante central de tamaño 2a:
2 E' s
f
=
donde:
E' =
1
E' = E
E
2
a
(deformación plana)
,
(2)
(3)
(esfuerzo plano)
gs es la energía de superficie libre por unidad de área de
superficie, E es el módulo de elasticidad y v es la relación
de Poisson. Esta expresión resultó ser aplicable a materiales
frágiles, mas no correspondía al comportamiento de los
metales. En 1952, Orowan [19] modificó la expresión de
Griffith, para incluir el comportamiento plástico del material
(fluencia):
2 E' ( s + p)
,
f =
a
(6)
donde b es un parámetro que depende de la geometría del
elemento y de la grieta, s es el esfuerzo remoto aplicado y a
es la longitud de una grieta de borde o la mitad de la longitud
de una grieta central.
Prontamente se reconoce que el factor de intensidad de
esfuerzos es el factor que caracteriza unívocamente el estado
de esfuerzos en el frente de una grieta, dado por:
(7)
donde s y t son los esfuerzos normal y cortante
respectivamente, en el punto de análisis, y las direcciones x
y y se muestran en la Fig. 2. Si K alcanza cierto valor crítico
(la tenacidad a la fractura del material Kc), ocurre fractura
súbita. Se da inicio entonces a la mecánica de fractura elástica
lineal (LEFM, por sus siglas en inglés). Crece entonces la
necesidad de tener expresiones para K para elementos en
diversas condiciones geométricas y de carga. Como se dijo,
los métodos pueden clasificarse como analíticos, numéricos
y experimentales. Los métodos analíticos tienen utilidad para
casos en los que la geometría es relativamente sencilla. Para
casos con geometrías o sistemas de esfuerzos complejos,
los métodos de elementos finitos superan a los analíticos,
por su versatilidad; por tanto, este trabajo se concentra
principalmente en los métodos de elementos finitos. Las
bases para determinar K se pueden encontrar en la literatura
[20,21].
III. Métodos analíticos
(4)
donde gp es el trabajo de deformación plástica por unidad de
área de superficie creada (gp >> gs en metales).
Entre Ciencia e Ingeniería
(5)
Los métodos analíticos son importantes, ya que han sido la
base de la mecánica de fractura y suministran las ecuaciones
73
parar calcular los campos de esfuerzos y desplazamientos
[22]. En estos métodos, se trata de determinar las
denominadas funciones de esfuerzo de Airy para hallar K.
Westergaard realizó uno de los primeros acercamientos al
problema [1], utilizando las funciones de Airy, en las cuales
se dice que, para que se cumplan las ecuaciones de equilibrio,
se tiene que cumplir la ecuación de compatibilidad:
d4
d4
d 4
+ 2 2 2 + 4 = 0,
dx 4
dx dy dy
(8)
o
2
( 2 ) = 0,
(9)
La función se llama la función de esfuerzo de Airy. A
partir de ésta se pueden determinar los valores de esfuerzos
y deformaciones mediante derivaciones parciales. Por
ejemplo, para esfuerzo plano:
d
d
d
=
,
=
,
=
.
2
x
dy
2
2
y
dx
2
2
xy
dxdy
(10)
Es así que se busca entonces una función de Airy que
cumpla con las ecuaciones para poder hallar los valores de
los esfuerzos. Esta función de esfuerzos se estima sobre la
base de resultados experimentales o conocimiento previo,
para cada problema en particular [17].
la determinación de los parámetros de la expansión en serie
de la distribución de esfuerzos y utilizando el “Boundary
Collocation Method” (en español, método de colocación en
la frontera) [23,24]. Para darle uso a la serie infinita, resultado
de la función de esfuerzo de Airy, ésta debe ser truncada
en el N-ésimo término (valor que debe ser correctamente
seleccionado). Es así que se obtienen 2N coeficientes
desconocidos, los cuales se determinan igualando las
expresiones de esfuerzo y deformación, obtenidas a partir
de la serie, con las condiciones de frontera específicamente
seleccionadas, en un cierto número de puntos de colocación
ubicados sobre dicha frontera. Para un número de puntos
de colocación N + 1 se obtendría un sistema de 2(N + 1)
ecuaciones que permiten calcular 2(N + 1) coeficientes. Para
reducir el gasto computacional, se puede seleccionar un gran
número de puntos de colocación, que permita resolver luego
el sistema sobre determinado mediante el uso de mínimos
cuadrados. A modo de ejemplo, en la Fig. 3 se presenta la
ubicación de algunos puntos de colocación en un problema
de grieta de borde en una placa finita, para los cuales se
tendrían entonces las siguientes condiciones de frontera:
Si x = 0, entonces sx = 0, txy = 0.
Si y = H, entonces sy = s, txy = 0.
Si x = W, entonces sx = 0, txy = 0.
En 1957, Wigglesworth propone una solución analítica
para una placa semi-infinita con grieta de borde en presencia
de una presión constante en las caras de la grieta o de un
esfuerzo remoto [23]. En esta se calculan los coeficientes
de una expansión en serie de la distribución de esfuerzos
alrededor de la grieta (expansión en serie con base en
las funciones de Airy). Wigglesworth mostró que los
coeficientes An y Bn se pueden determinar a partir de la
expansión asintótica de una función para números enteros
grandes :
q(m) = 2h(1)
(3 /2 ) (m /2 )
h(m),
(m /2 + 3/ 2)
(11)
siendo
m
(V )
log(h(m))
=
dV ,
(12)
(V
) = log[1/ (1 V 2 csc h 2 ( V /2 ))].
(13)
0
m 2 +V 2
Fig. 3. Placa finita con grieta de borde.
A partir de la relación entre las expansiones asintóticas
del log(h(m)) y de h(m) se obtienen valores de An y Bn ,
que luego se operan para obtener de forma iterativa mejores
valores de An y Bn , los cuales se utilizan para calcular An y
Bn que son los coeficientes usados en la expansión en series
de la distribución de esfuerzos [23].
Alrededor de 1965 se propone una solución simple para
Otra herramienta fuerte para la determinación de
factores de intensidad de esfuerzos es el principio de
superposición, el cual permite encontrar soluciones de casos
relativamente complejos, a partir de resultados conocidos de
configuraciones sencillas (para los cuales se conozcan los
valores mediante tablas o expresiones). Si el material en las
condiciones requeridas tiene comportamiento elástico-lineal,
las componentes del esfuerzo (normal en cada dirección,
cortante en cada dirección), deformación y desplazamiento
(en cada dirección) son sumas. De igual forma los factores
de intensidad de esfuerzos pueden ser sumados, siempre y
cuando el modo de fractura en el que fueron calculados sea
el mismo. Es decir:
Universidad Católica de Pereira
74
K
= K + K + K +...
total
a
b
c
I
I
I
I
(14)
Para entender el principio de superposición, considere el
ejemplo de la Fig. 4, en la cual se cumple que:
a
K I
= K Ib = 0 = K Ic + K Id .
(15)
Fig. 4. Placa finita con grieta central.
Otro método analítico que ha sido propuesto se basa en
distribuciones continuas de dislocaciones [25,26]. La grieta
es representada por una discontinuidad de desplazamiento
que resulta de un arreglo de dislocaciones (ver [26]).
IV. Métodos de Elementos Finitos
A.Introducción
Por la elevada complejidad matemática de los métodos
analíticos y su reducida versatilidad (debido a la gran
cantidad de simplificaciones requeridas, y a la necesidad de
trabajar geometrías sencillas), se han desarrollado numerosos
métodos numéricos. Algunos son: una técnica de mapeo de
conformación (en inglés: conformal mapping technique),
la cual fue usada por [27] para tratar el problema de una
grieta que emana de un agujero. En [28], se desarrolla un
procedimiento de mapeo-colocación (mapping-collocation
procedure) para analizar una placa ortotrópica, la cual es una
combinación de la técnica de mapeo de conformación y del
método de colocación en la frontera, ya mencionados.
Sin embargo, el método más usado para determinar K es
el método de elementos finitos (FEM) y sus variantes. Tras
el establecimiento de las bases de estos métodos, alrededor
de 1970, se extendió su aplicación a la LEFM y creció la
cantidad de métodos para mejorar su precisión y eficiencia.
Algunos programas computacionales que usan FEM son
Ansys [29], Abaqus [30], Samcef [31], Morfeo/Crack [32]
y StressCheck [33]. En general, estos programas permiten
determinar los factores de intensidad de esfuerzos y predecir
el crecimiento de grietas por fatiga usando funciones de
enriquecimiento. Estos programas han sido usados, por
ejemplo, por [34-39].
El resto de esta sección se concentra en las diferentes
variantes usadas para implementar el FEM.
Entre Ciencia e Ingeniería
B. Refinamiento de malla
El primer acercamiento del FEM a la LEFM fue la
aplicación directa (con refinamiento de malla) del análisis
sobre un elemento agrietado. Conociendo que la distribución
de esfuerzos en la cercanía del frente de grieta es la zona
de importancia para la mecánica de fractura, se optó por
utilizar mallas muy refinadas en esta zona. De esta forma el
planteamiento del análisis de elementos finitos permanecía
sin modificaciones, pero presentaba una muy baja eficiencia
computacional, ya que el mallado tiene que refinarse mucho.
C. Elementos singulares
Para evitar el refinado excesivo de la malla se han propuesto
diversas soluciones, una de las primeras soluciones implica
el uso de elementos singulares, los cuales reemplazan los
elementos normalmente utilizados en elementos finitos; de
éstos se reconocen cinco tipos: elementos con funciones de
forma especiales, híbridos, basados en transformaciones
geométricas, enriquecidos y elementos de transición [4042]. Cada tipo de elemento singular presenta sus ventajas
y desventajas que los hacen preferibles en determinadas
condiciones y problemas (ver [12,43,44]). Por ejemplo, los
elementos híbridos ofrecen una mayor precisión, pero los
elementos basados en transformaciones geométricas (como
los elementos tipo “quarter point”) son los más sencillos de
implementar. Por ejemplo, [34] usan el método de elementos
finitos con elementos singulares, para modelar una placa 2D
mediante el software Ansys [29]. [37] determinan factores
de intensidad de esfuerzos, usando Abaqus [30], para una
pieza con una grieta de borde sometida a carga de modos I y
II; se usan elementos singulares con nodos “quarter point”.
D. X-FEM
El método de los elementos finitos extendido (X-FEM, por
sus siglas en inglés), propuesto por Belytschko y Black [45] y
Moës [15], surgió como respuesta al análisis de propagación
de la grieta, debido a que cada vez que crece la grieta se
requeriría de un nuevo mallado, ya que ésta debe estar
alineada con la topología de la discontinuidad. Se propuso
un nuevo tipo de malla, donde los nodos pertenecientes a
elementos intersecados por la ubicación geométrica de la
grieta son “enriquecidos”, permitiendo el uso de una malla
mucho más sencilla, que se extiende sobre la pieza supuesta
sin grieta, y manteniendo la malla constante; así, se trata
la grieta como una entidad geométrica independiente. Los
nodos son “enriquecidos” mediante la adición de grados de
libertad de manera que puedan representar la discontinuidad
y mejorar la representación de la singularidad del extremo de
grieta. Este enriquecimiento se puede realizar de dos formas
diferentes: enriquecimiento de extremo de grieta (para los
nodos del elemento donde se encuentra el frente de grieta,
los cuales tienen 10 grados de libertad) y el enriquecimiento
Heaviside (para los nodos de los demás elementos
intersecados por la grieta, los cuales tienen 4 grados de
libertad). En la Fig. 5 se muestra un ejemplo de un mallado
en X-FEM y la representación de los nodos enriquecidos.
75
Otro método que se apoya en el análisis de elementos
finitos y que es comúnmente utilizado en la determinación
de los factores de intensidad de esfuerzo es el método de la
función de peso [4,16,23,53-55]. A partir de la distribución
de esfuerzos en la pieza sin grieta, a lo largo de la línea donde
ésta debería estar, el factor K se calcula como:
Enriquecimiento de
Extremo de grieta
Enriquecimiento
Heaviside
Fig. 5. Malla para X-FEM, con nodos enriquecidos.
La función Heaviside está dada por:
1, (x x*) e n > 0
H (x)
=
,
1, (x x*) e n < 0
(16)
KI =
2
a
0
w(s, a)
n
(s)ds
,
(17)
donde sn(s) es el esfuerzo calculado en la pieza sin grieta (a
lo largo de la zona donde debería estar la grieta), w(s,a) es
la función de peso, la cual es específica para cada problema
y no depende de la distribución de esfuerzos, sino de la
geometría del elemento. Una de las formas de determinar
esta función de peso es a partir de la relación:
E ' Vr (s, a)
w(s, a) =
,
(18)
donde x es un punto del dominio, x* es el punto más cercano
K Ir (a)
a
sobre la grieta y en es un vector normal a la grieta.
Con el fin de que uno de los grados de libertad calculados
mediante X-FEM sea la solución física del desplazamiento
nodal, se ha implementado [46-48] una variante llamada
formulación “shifted”.
Otras soluciones propuestas para el FEM son la
superposición de malla y la sustitución local de malla [9].
E.Métodos de extracción
Una vez hallada la distribución de esfuerzos y
deformaciones alrededor de la grieta, es necesario calcular
el valor del factor de intensidad de esfuerzos. Para esto se
pueden aplicar diferentes métodos de extracción.
Los métodos locales o directos permiten realizar una
estimación del factor de intensidad de esfuerzos directamente
a partir de los resultados de esfuerzos y deformaciones
obtenidos en el análisis de elementos finitos [16,49]; por tal
motivo, estos métodos se usan casi siempre en combinación
con elementos singulares. Uno de estos métodos propone
el reemplazo de los valores calculados y conocidos de las
ecuaciones de Irwin para los esfuerzos alrededor de una
grieta (en coordenadas polares) para despejar el valor de K,
obteniendo varios valores que permitan obtener la relación
con la distancia al frente de grieta. Este método presenta
muchas dificultades y sus resultados son generalmente poco
confiables [49]. Hay formas de mejorar su exactitud como
el refinamiento de la malla o el uso de elementos singulares,
los cuales son la opción más apropiada y utilizada en
conjunto con los métodos directos [16]. Existen otros
métodos locales, entre los cuales los más utilizados son [16]:
extrapolación de desplazamientos y esfuerzos [29, 34. 50],
técnica de correlación de desplazamientos [12], técnica de
desplazamiento en los nodos “quarter-point” [51], método
de las fuerzas nodales [14] y ajuste por mínimos cuadrados
[52].
donde E’ está dado por (3), el subíndice r se refiere a los
casos de referencia, que deben ser evaluados. Se puede
evaluar esta ecuación utilizando un par de perfiles de apertura
de grieta (de longitudes ligeramente diferentes a y a + da)
numéricamente definidos a partir del “boundary collocation
method” y sus correspondientes expansiones en serie. Para
minimizar los cálculos, normalmente en la literatura se
utilizan métodos aproximados.
Además de los métodos de extracción locales o directos,
para el cálculo de K existen también métodos de extracción
indirectos o energéticos que se basan en la relación entre K
y el contenido de energía elástica de la estructura [34,49].
La gran ventaja de estos métodos es que no se requiere un
modelado preciso de la discontinuidad. En éstos, ciertas
magnitudes energéticas se evalúan a partir de datos obtenidos
en elementos alejados del frente de la grieta. Sus desventajas
son la dificultad de aislar las contribuciones de los diferentes
modos de apertura de grieta (si en el problema existe más
de un modo) y su uso para problemas 3D. Algunos métodos
energéticos son la integral de contorno J, la integral de
contorno en modo mixto y la integral de dominio. [56]
La aplicación de la integral de contorno J (propuesta
por Rice [57]) permite la correcta estimación de las
deformaciones en la parte más cercana a la grieta. En un
sólido homogéneo, elástico, no necesariamente lineal, en
ausencia de fuerzas por unidad de volumen y contorno de
la entalla libre de fuerzas por unidad de superficie aplicadas
[16,17,58,59], la integral J se define como (Fig. 6):
u
J = Wdy T d ,
(19)
x
donde G es cualquier camino o recorrido alrededor del frente
de grieta, desde una cara de ella hasta la otra en sentido
antihorario, T es el vector de tracciones en el contorno G y
u es el vector de desplazamientos. La densidad de energía de
deformación W para el caso elástico se define como:
Universidad Católica de Pereira
76
d ,
W=
ij
0 ij
(20)
donde eij es el tensor de deformaciones infinitesimales.
Fig. 7. Representación del área, integral de dominio.
Fig. 6. Representación del contorno, integral J.
A partir de este resultado, si se tienen condiciones en las
cuales pueda ser aplicada la mecánica de fractura elástica
lineal, es decir, si se tiene una zona de deformación plástica
lo suficientemente pequeña, se puede demostrar que:
K I2
J
=
.
E'
(21)
Una de las mayores ventajas del cálculo de la integral
J es que su valor no depende del camino tomado para la
integración, por lo que se puede hacer uso de un camino
un poco más alejado de la grieta, donde la distribución de
esfuerzos es calculada por los elementos finitos con una
mayor precisión [16].
Para la solución de problemas más generales, y en
condiciones donde la integral J no pueda ser aplicada
(problemas dinámicos, en 3D, con efectos térmicos, fuerzas
por unidad de volumen, etc. o donde la integral de contorno
no es independiente del camino escogido), se utiliza una
formulación diferente denominada integral de dominio
[58,59]. Esta integral de dominio, propuesta por Li et al. [60],
es superior por su facilidad de cómputo y mayor precisión
(especialmente en problemas 3D) y está definida como:
u
x1
q
x1
j
1
J=
W 1i
dA,
ij
A*
(22)
donde dA es un diferencial de área, A* está definido de
acuerdo a la Fig. 7, y la función q1 es:
0, si (x1, x2 )
q1 (x1, x2 ) =
1, si (x1, x2 )
Entre Ciencia e Ingeniería
1
3
.
(23)
Además de las integrales de contorno y de dominio,
otros métodos de extracción energéticos o indirectos son:
diferencias finitas, funciones de extracción, derivada
de la matriz de rigidez y cierre virtual de grieta [9]. A
manera de ejemplo, [36] usan FEM para calcular mediante
Abaqus [30] factores de intensidad de esfuerzos de una
unión simple agrietada (con tornillo y con tornillo más
adhesivo) con elementos singulares quarter point, y extraen
los valores mediante el método de la integral de contorno.
[38] determinan factores de intensidad de esfuerzos, usando
Abaqus [30] y la integral J para grietas emanando de agujeros
elípticos en placas planas.
V. Métodos Experimentales
A.Galgas extensiométricas
Una de las primeras técnicas experimentales desarrolladas
para la medición de los factores de intensidad de esfuerzos se
basa en el uso de galgas extensiométricas, con el objetivo de
determinar las deformaciones en la distribución de esfuerzos
alrededor del frente de grieta [3,61,62].
Los métodos que utilizan galgas usan formulaciones
analíticas que determinan las deformaciones en el área
cercana al frente de grieta, por ejemplo, en [61] se utiliza la
expresión desarrollada por Irwin:
KI
E 2 r
f ( ),
rr (r, ) =
(24)
donde f(q) es una función que depende del ángulo q que
no solamente brinda la ubicación en coordenadas polares
de la galga, sino que también es su orientación. Como en
este caso particular se utiliza una galga de tipo paralela, se
usa una corrección del gradiente de deformación mediante
integración.
En otros casos, por ejemplo [3,62], se utilizan las ecuaciones
generalizadas de Westergaard, las cuales están basadas en
las expansiones en serie de las funciones de Airy. De esta
forma se obtienen expresiones para las deformaciones en
términos de coeficientes Ai, Bi (los diferentes autores, como
puede verse en [3,62], utilizan expresiones de diferentes
77
extensiones), permitiendo calcular el factor de intensidad de
esfuerzos como:
K I = 2 A0 .
(25)
En general, los métodos que utilizan galgas se basan
en la teoría de Dally y Berger para seleccionar una zona
sobre la cual ubicar las galgas alrededor del frente de
grieta, dividiendo el área en tres partes (Fig. 8). La zona I
se considera demasiado cercana a la grieta y puede inducir
errores debido a la zona de deformación plástica, y la zona
III es demasiado alejada, por lo que la representación en serie
requeriría de muchos coeficientes, razones por las cuales se
elige la zona II para la ubicación de los elementos de medida
[62].
Dado que todas las ecuaciones utilizadas en estos métodos
dependen de los ángulos de ubicación de las galgas y su
orientación, una correcta selección de los mismos permite
la simplificación de los cálculos, e inclusive la reducción
del número de mediciones [3,61,62]. En estos métodos
generalmente se utiliza la probeta compacta de tensión,
similar a la utilizada para los ensayos de determinación de la
tenacidad a la fractura Kc.
los patrones característicos de este tipo de análisis, llamados
patrones isocromáticos.
El patrón isocromático se relaciona con el sistema de
esfuerzos mediante la expresión [63,64]:
f
t
N,
1
2 =
(26)
donde f es el coeficiente esfuerzo-óptico, que depende del
material y la longitud de onda de la luz utilizada, t es el
espesor del modelo y N es el retardo relativo de los rayos
que forman el patrón. Este retardo se puede medir contando
el número de cambios en un punto de la pieza, mientras se
aplica la carga paulatinamente, entre una franja oscura y una
franja clara (cada cambio de claro a oscuro y oscuro a claro
cuenta como 1/2).
Dependiendo de la pieza y las condiciones de carga, el
patrón isocromático puede no ser tan claro o preciso, por
lo que se puede realizar una multiplicación de franjas, que
consiste en hacer que el rayo de luz pase en varias ocasiones
por la pieza, obteniendo mayor cantidad de franjas que así
podrán brindar más y mejor información [63]. Aprovechando
esta propiedad se utiliza una variedad del método en
materiales no transparentes, como los metales de ingeniería.
A una pieza de un material no transparente se la pinta de
un color que permita reflejar la luz y se le cubre con una
capa de material transparente con propiedades fotoelásticas,
permitiendo así ver las condiciones de esfuerzo, en especial
para piezas que ya están en uso en alguna estructura o
máquina.
C. Método de las cáusticas
Fig. 8. Zonas alrededor del frente de grieta.
B.Método fotoelástico
Otros métodos experimentales se basan en las propiedades
de ciertos materiales transparentes para desviar la luz
cuando se encuentran sometidos a esfuerzos. Uno de ellos se
denomina fotoelasticidad.
La fotoelasticidad es una propiedad única de algunos
materiales transparentes, en particular ciertos plásticos [63].
Debido a esta propiedad, un rayo de luz que incide en un
material fotoelástico sometido a condiciones de esfuerzo,
en una de las direcciones de los esfuerzos principales,
es dividido en dos componentes, cada una con un plano
de vibración paralelo a los otros dos planos de esfuerzos
principales, y velocidades diferentes que dependen de la
magnitud de dichos esfuerzos. Debido a las diferentes
velocidades, las dos componentes salen del material con un
retardo relativo entre ellas, luego son capturadas mediante
un polariscopio fotoelástico, para permitirles entrar en
interferencia óptica. De acuerdo al retardo relativo, medido
en términos de ciclos, se producen zonas de alta intensidad
lumínica o zonas de interferencia destructiva, generándose
Otro de los métodos que aprovechan las propiedades de
los materiales transparentes es el método de las cáusticas
[64-66], en el cual se aprovecha el hecho de que la
presencia de grandes esfuerzos (como es el caso del frente
de grieta) provocan un cambio en el ancho de la pieza y en
las propiedades refractivas del material, por lo que la luz
que pasa por esa zona se ve desviada, generando figuras y
patrones que responden directamente a la geometría de la
figura y las condiciones de carga. Las sombras que se generan
y sus dimensiones se pueden calcular para cada elemento y
condición de carga.
VI. Conclusiones
En esta breve revisión de los métodos para la
determinación de los factores de intensidad de esfuerzos, se
puede apreciar la variedad de opciones y métodos existentes
para enfrentar dicho problema (Fig. 9 y 10). En el pasado,
fueron fundamentales los métodos analíticos, ya que éstos
permitieron obtener expresiones para K para diversos casos,
relativamente sencillos, y entender mejor la mecánica de
la fractura. Sin embargo, los métodos analíticos tienden
a ser difíciles de usar para casos relativamente complejos.
Se hizo evidente que en la actualidad hay un gran énfasis
Universidad Católica de Pereira
78
en la utilización de métodos de elementos finitos, debido
a su gran versatilidad, a que no requieren fundamentos
matemáticos tan profundos como los métodos analíticos y a
que con las variantes propuestas, se pueden lograr resultados
rápidos y de manera sencilla y exacta. Por otro lado, la
aplicación de métodos experimentales es de gran utilidad
como comprobación de los resultados obtenidos mediante
algún otro método, en particular porque están altamente
condicionados y su aplicación es muy laboriosa. Se hizo
evidente que la aplicación de cualquiera de los métodos aquí
presentados requiere de un estudio dedicado y minucioso,
para poder ser utilizado adecuadamente.
Fig. 9. Métodos analíticos y experimentales para determinar el factor de
intensidad de esfuerzos.
Fig. 10. Métodos numéricos para determinar el factor de intensidad de esfuerzos.
Entre Ciencia e Ingeniería
79
Referencias
[1] R. W. Hertzberg, Deformation and Fracture Mechanics of Engineering
Materials. U.S.A.: Jon Wiley & Sons, 1996.
[2] W. Schütz, “A history of fatigue,” Eng. Fracture Mech., vol. 54,
pp.263-300, 1996.
[3] L. Parnas, Ö. Bilir, E. Tezcan, “Strain gage methods for measurement
of opening mode stress intensity factor,” Eng. Fracture Mech., vol.
55, pp. 485-492, 1996.
[4] T. Fett, Stress Intensity Factors and Weight Functions for Special
Crack Problems. Karlsruhe: Forschungszentrum Karlsruhe GmbH,
1998.
[5] M. Aliabadi y D. Rooke, Numerical Fracture Mechanics Computational Mechanics Publications: Solid Mechanics and its
Applications. UK: Kluwer Academic Publishers, 1991.
[6] H. Tada, P. Paris y G. Irwin, The Stress Analysis of Cracks Handbook.
2a edición, St. Louis, Missouri: Paris Productions, Inc., 1985.
[7] Y. Murakami, Stress Intensity Factors Handbook. Oxford: Pergamon
Press, 1987.
[8] V. Watwood, Jr., “The finite element method for prediction of crack
behaviour,” Nuclear Eng. and Des., vol. 11, pp. 323-332, 1969.
[9] J. R. Dixon y L. P. Pook, “Stress intensity factors calculated generally
by the finite element technique,” Nature, vol. 224, pp. 166-167, 1969.
[10] J. Rice y D. Tracey, “Computational fracture mechanics,” en
Numerical and Computer Methods in Structural Mechanics, S.
Fenves, N. Perrone, A. Robinson y W. Schnobrich, directores, New
York: Academic Press, pp. 585-623, 1973.
[11] R. A. Gallagher, “Review of finite element techniques in fracture
mechanics,” en Num. Meth. Frac. Mech., Proc. 1st Conf., Swansea:
Pineridge Press, pp. 1-25, 1978.
[12] D. Owen y A. Fawkes, Engineering Fracture Mechanics: Numerical
Methods and Applications. Swansea, UK: Pineridge Press Ltd., 1983.
[13] S. Atluri, Computational Methods in the Mechanics of Fracture,
Vol. 2 de Computational Methods in Mechanics. North-Holland,
Amsterdam: Elsevier Science, 1986.
[14] I. Raju y J. Newman, Jr., “Methods for analysis of cracks in threedimensional solids,” J. Aero. Soc. India, vol. 36, pp. 153-172, 1984.
[15] N. Moës, J. Dolbow y T. A. Belytschko, “Finite element method for
crack growth without remeshing,” Int. J. for Num. Meth. in Eng., vol.
46, no. 1, pp. 131-150, 1999.
[16] M. Sabsabi, “Modelado de grieta y estimación de vida en fretting fatiga
mediante el método de los elementos finitos extendido X-FEM,” tesis
doctoral, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, Esp., 2010.
[17] J. L. Arana, J. J. González, Mecánica de Fractura. España: Servicio
Editorial de la Universidad del País Vasco, 2002.
[18] A.A. Griffith, “The phenomena of rupture and flow in solids,” Philos.
Trans. Roy. Soc. London, Series A, vol. 221, pp. 163-198, 1921.
[19] E. Orowan, “Fundamentals of brittle behavior of metals,” en Fatigue
and Fracture of Metals, New York: Wiley, W.M. Murray. Ed., pp. 139167, 1952.
[20] G. Sih, Methods of Analysis and Solutions of Crack Problems, Vol. 1
de Mechanics of Fracture. Leyden, Holanda: Noordho International
Publishing, 1973.
[21] D. Rooke, “The development of stress intensity factors,” en Fretting
Fatigue, R. Waterhouse y T. Lindley, directores, ESIS 18, Londres:
Mechanical Engineering Publications, 1994, pp. 23-58.
[22] D. Broek, Elementary Engineering Fracture Mechanics. The
Netherlands: Martinus Nijhoff Publishers, 1984.
[23] T. Fett, Stress Intensity Factors T-Stresses Weight Functions.
Karlsruhe: Universitätsverlag Karlsruhe, 2008.
[24] B. Gross, J. E. Srawley, W. F. Brown, Jr, Stress Intensity Factors for
a Single-Edge Notch Tension Specimen by Boundary Collocation
of a Stress Function. Washington: National Aeronautics and Space
Administration, 1964.
[25] B. A. Bilby, A. H. Cottrell, E. Smith y K. H. Swinden, “Plastic yielding
from sharp notches,” Proc. Roy. Soc., vol. A 279, pp. 1-9, 1964.
[26] B. A. Bilby y J. D. Eshelby, Dislocations and the Theory of Fracture
- Fracture I. Liebowitz: Ed. Academic Press, 1969.
[27] O. L. Bowie, “Analysis of an infinite plate containing radial cracks
originating at the boundary of an internal circular hole,” J. Math. and
Phys., vol. 25, pp. 60-71, 1956.
[28] O. L. Bowie y D. M. Neal, “Modified mapping-collocation technique
[29]
[30]
[31]
[32]
[33]
[34]
[35]
[36]
[37]
[38]
[39]
[40]
[41]
[42]
[43]
[44]
[45]
[46]
[47]
[48]
[49]
[50]
[51]
[52]
for accurate calculation of stress intensity factors,” Int. J. Fract.
Mech., vol. 6, pp. 199-206, 1970.
ANSYS, Inc. (2016) USA. ANSYS Simulation driven producto
development. [En línea] Disponible: http://www.ansys.com/
Dassault Systemes (2016). Abaqus Unified FEA. [En línea]
Disponible: http://www.3ds.com/products-services/simulia/products/
abaqus/, consultado: febrero 2016.
Siemens Product Lifecycle Management Software, Inc. (2016). LMS
Samcef Fracture Mechanics. [En línea] Disponible: http://www.plm.
automation.siemens.com/en_us/products/lms/samtech/samcef-solversuite/fracture-mechanics.shtml
Cenaero. (2016). Morfeo/Crack: A High-Fidelity Crack Propagation
Software. [En línea] Disponible: http://www.cenaero.be/Page.asp?
docid=27328&langue =EN, consultado: febrero de 2016.
ESRD, Inc. (2015) Fracture and Damage Tolerance [En línea]
Disponible:
http://www.esrd.com/Solutions/Fracture.aspx,
consultado: febrero de 2016.
G. Kastratovic, A. Grbovic y N. Vidanovic. “Approximate method for
stress intensity factors determination in case of multiple site damage,”
App. Math. Modelling, vol. 39, pp. 6050-6059, 2015.
E. Giner, N. Sukumar y F. J. Fuenmayor, “An Abaqus implementation
of the extended finite element method,” Eng. Fracture Mechanics,
vol. 76, pp. 347-368, 2009.
M. Samaei, M. Zehsaz y T. N. Chakherlou. “Experimental and
numerical study of fatigue crack growth of aluminum alloy 2024-T3
single lap simple bolted and hybrid (adhesive/bolted) joints,” Eng.
Failure Analysis, vol. 59, pp. 253-268, 2016.
S. Pirmohammad y A. Kiani. “Study on fracture behavior of HMA
mixtures under mixed mode I/III loading,” Eng. Fracture Mechanics,
vol. 153, pp. 80-90, 2016.
P. Weißgraeber, J. Felger, D. Geipel y W. Becker. “Cracks at elliptical
holes: stress intensity factor and finite fracture mechanics solution,”
Eur. J. Mechanics A/Solids, vol. 55, pp. 192-198, 2016.
M. J. Hammond y S. A. Fawaz. “Stress intensity factors of various size
single edge-cracked tension specimens: A review and new solutions,”
Eng. Fracture Mechanics, vol. 153, pp. 25-34, 2016.
H. Liebowitz y E. T. Moyer, Jr., “Finite element methods in fracture
mechanics,” Comp. & Stru., vol. 31, no. 1, pp. 1-9, 1989.
E. Giner, “Estimación del error de discretización en el cálculo del
factor de intensidad de tensiones mediante elementos finitos,” tesis
doctoral, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, España,
2001.
S. Lo y C. Lee, “Solving crack problems by an adaptive refinement
procedure,” Eng. Fracture Mech., vol. 43, no. 2, pp. 147-163, 1992.
F. Michavila y L. Gavete “Métodos numéricos para el estudio
de singularidades en elasticidad lineal,” en Métodos Numéricos
Aplicados a Mecánica de la Fractura, J. Oliver, M. Elices, E. Oñate y
M. Astiz, directores, Barcelona: CIMNE, 1988, pp. 1-25.
G. Carey y J. Oden, Finite Elements: A Second Course, Vol. II de
The Texas Finite Element Series. NJ: Prentice-Hall, Englewood Cliffs,
1983.
T. Belytschko y T. Black, “Elastic crack growth in finite elements with
minimal remeshing,” Int. J. Num. Meth. Eng., vol. 45, no. 5, pp. 601620, 1999.
G. Ventura, E. Budyn y T. Belytschko, “Vector level sets for description
of propagating cracks in finite elements,” Int. J. Num. Meth. Eng., vol.
58, pp. 1571-1592, 2003.
E. Giner, N. Sukumar, F. Denia y F. Fuenmayor, “Extended finite
element method for fretting fatigue crack propagation,” Int. J. Solid
Struc., vol. 45, pp. 5675-5687, 2008.
G. Zi y T. Belytschko, “New crack-tip elements for XFEM and
applications to cohesive cracks,” Int. J. Num. Meth. Eng., vol. 57, pp.
2221-2240, 2003.
Afgrow. (2013, Oct.). Methodology For Determining Stress Intensity
Factors. [En línea] Disponible: http://www.afgrow.net/applications/
DTDHandbook/pdfs%5CSec11_2_0.pdf> , consultado: octubre 2013.
S. Chan, I. Tuba y W. Wilson, “On the finite element method in linear
fracture mechanics,” Eng. Frac. Mech., vol. 2, pp. 1-17, 1970.
S. Pu, M. Hussain y W. Lorensen, “The collapsed cubic isoparametric
element as a singular element for crack problems,” Int. J. Num. Meth.
Eng., vol. 12, pp.1727-1742, 1978.
S. Ju, “Simulating three-dimensional stress intensity factors by the
Universidad Católica de Pereira
80
[53]
[54]
[55]
[56]
[57]
[58]
[59]
[60]
[61]
[62]
[63]
[64]
[65]
[66]
least-squares method,” Int. J. Num. Meth. Eng., vol. 43, pp. 14371451, 1998.
C. E. Freese y F.I. Baratta, “Single edge-crack stress intensity factor
solutions,” Eng. Fracture Mech., vol. 73, pp. 616-625, 2006.
H. Bueckner, “A novel principle for the computation of stress intensity
factors,” ZAMM, vol. 50, pp. 529-546, 1970.
J. Rice, “Some remarks on elastic crack-tip stress fields,” Int. J. Solid
Struc., vol. 8, pp. 751-758, 1972.
A. Vercher, “Mejora de los elementos de transición en XFEM aplicado
a Mecánica de la Fractura Elástica Lineal,” tesis doctoral, Dep. Ing.
Mec. y Mat., Univ. Pol. Val., Valencia, España, 2010.
J. Rice, “A path independent integral and the approximate analysis of
strain concentration by notches and cracks,” J. Applied Mech., vol. 35,
pp. 379-386, 1968.
D. A. Fattori, “Evaluación de la integral J2 y aplicación a problemas
en modo mixto 2D de la mecánica de la fractura elástico-lineal,” tesis
de maestría, Dep. Ing. Mec. y Mat., Univ. Pol. Val., Valencia, Esp.,
2009.
C. Cueto-Felgueroso, “Implantación del método de cálculo de la
integral J sobre un dominio,” Anales de Mec. Frac., vol. 18, pp. 388394, 2001.
F. Li, C. Shih y A. Needleman, “A comparison of methods for
calculating energy release rates,” Eng. Frac. Mech., vol. 21, no. 2,
pp. 405-421, 1985.
J. H. Kuang y L.S. Chen, “A single strain gage method for Ki
measurement,” Eng. Frac. Mech., vol. 51, pp. 871-878, 1995.
H. Sarangi, K. S. R. K. Murthy y D. Chakraborty, “Optimum strain
gage locations for accurate determination of the mixed mode stress
intensity factors,” Eng. Fracture Mech., vol. 88, pp. 63-78, 2012.
J. F. Doyle, J. W. Phillips, Manual on Experimental Stress Analysis.
Society for Experimental Mechanics, 5th edition.
G. A. Papadopoulos, “Study of concentrated vertical load at the apex of
a wedge by the experimental methods of caustics and photoelasticity,”
Adv. and App. in Mech. Eng. and Tech., vol. 3, pp. 59-81, 2011.
S. Shen, T. Nishioka, “Theoretical development of the method
of caustics for intersonically propagating interfacial crack,” Eng.
Fracture Mech., vol. 70, pp. 643-655, 2003.
E. E. Gdoutos. “The optical method of caustics,” Optics and Lasers in
Engineering, vol. 79, pp. 68–77, 2016.
Jairo Andrés Grajales Herrera nació en Cali, Valle del Cauca, el 10
de octubre de 1988. Se graduó como Ingeniero Mecánico en la Universidad
Tecnológica de Pereira, Pereira (Colombia) en 2012, en la cual obtuvo mención como estudiante distinguido y la beca Jorge Roa Martínez. Ha trabajado en diversos proyectos de investigación en el área de vibraciones mecánicas, monitoreo de fallas y modelado de componentes mecánicos, además
de proyectos en el área de transporte automotor de pasajeros por carretera.
Es investigador activo en el área de análisis de vibraciones en motores de
combustión interna y estudiante de la Maestría en Ingeniería Mecánica de
la Universidad Tecnológica de Pereira, institución en la cual se desempeña
como profesor catedrático
Libardo Vicente Vanegas Useche nació en Pereira, Risaralda, el 20
de mayo de 1972. Se graduó como Ingeniero Mecánico en la Universidad
Tecnológica de Pereira, Pereira (Colombia) en 1994. Obtuvo el grado de
M.Sc. en Advanced Manufacturing Technology and Systems Management
en la University of Manchester, Manchester (Reino Unido) en 1999. Obtuvo
el grado de Ph.D. en Mechanical Engineering en la University of Surrey,
Guildford (Reino Unido) en 2008.
Fue Ingeniero de Fábrica en el Ingenio Central Sicarare S.A. y se desempeñó como Docente de Laboratorio y Elaborador de Páginas Web Educativas en la University of Surrey. Actualmente es Profesor Titular en la
Facultad de Ingeniería Mecánica de la Universidad Tecnológica de Pereira,
La Julita, Pereira (Colombia). Fue Director del Primer Congreso Internacional sobre Tecnologías Avanzadas de Mecatrónica, Diseño y Manufactura AMDM en el año 2012. Ha publicado más de 55 trabajos científicos.
Sus intereses de investigación incluyen mecánica de fractura, fatiga, diseño
mecánico y modelado de elementos mecánicos mediante el método de elementos finitos.
Entre Ciencia e Ingeniería
81
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 81-88
Índice para medir la situación digital rural: caso de
jóvenes escolarizados1
Index to measure the rural digital situation: case of young students
Índice para medir a situação digital rural:
caso de jovens escolarizados
O. A. Vega
Recibido Septiembre 22 de 2015 – Aceptado Febrero 19 de 2016
Resumen — El artículo presenta un índice para evaluar
la situación digital de jóvenes rurales escolarizados, llamado
insidir-jes, que integra tres índices (de acceso, de uso y de
factores favorables). Para ello, después de hacer un corto
esbozo de lo digital en el sector rural, se aborda la brecha
digital y su medición, para terminar con un bosquejo del índice,
acompañado de una prueba realizada con 78 estudiantes
de cinco instituciones educativas rurales. La novedad del
índice es que, además de estar diseñado para un segmento
poblacional específico, señala una relación estrecha y utilitaria
entre educación y TIC, superando el simple acceso y uso, al
considerar la apropiación y los factores favorables para la
inclusión digital.
Resumo – O artigo apresenta um índice para avaliar a
situação digital de jovens rurais escolarizados, chamado
INSIDIR-JES, que integra três índices (acesso, de uso e de
fatores favoráveis). Para este, depois de fazer um curto esboço
do digital no setor rural, se trata a brecha digital e sua medição,
para terminar com um esboço do índice, acompanhado de
uma prova realizada com 78 estudantes de cinco instituições
educativas rurais. A novidade do índice é que além de estar
projetado para um seguimento populacional especifico,
sinala uma relação estreita e utilitária entre educação e TIC,
superando o simples acesso e uso, a considerar a apropriação e
os fatores favoráveis para a inclusão digital.
Palabras clave — brecha digital, índice compuesto, insidirjes, joven estudiante rural.
Palavras chave: brecha digital, índice composto, INSIDIRJET, jovem estudante rural.
Abstract— This article presents an index to evaluate the
digital situation of young rural students, entitled insidirjes, which integrates three aspects (access, use and favorable
factors). For this purpose, after making a short outline of the
digital component in the rural sector, the digital divide and
its measurement is discussed, ending with a sketch of the
index, accompanied by a test with 78 students from five rural
schools. The new index is that, besides being designed for a
specific population segment, focus on a narrow and utilitarian
relationship between education and ICT, overcoming the
simple access and use, and considering the favorable factors for
digital inclusion.
Key words— digital divide, composite index, insidir-jes,
young rural students.
Producto derivado del proyecto de investigación ‘Estrategia
de educación para el desarrollo humano y el trabajo dirigido a jóvenes
escolarizados habitantes del sector rural’, componente del programa de
investigación ‘Construcción de ambientes innovadores e inclusivos para el
aprendizaje en escenarios virtuales’, ejecutado mediante la alianza temporal
Universidad de Manizales – CHEC EPM, dentro de la convocatoria
Colciencias-MEN 578-2012.
O.A. Vega. Profesor titular, Facultad de Ciencias e Ingeniería,
Universidad de Manizales (Manizales, Caldas, Colombia). email: [email protected]
umanizales.edu.co, [email protected]
1
I. Introducción
L
a incorporación de las Tecnologías de la Información
y las Comunicaciones (TIC) en los diferentes
aspectos de la vida actual no puede desconocerse, al punto
de modificar comportamientos de personas2, empresas y la
sociedad misma. Es por ello que debe mirarse hacia el sector
rural, especialmente en países cuya economía tiene una alta
participación agropecuaria, donde la incorporación adecuada
de TIC en los procesos sociales y productivos, señalará la
dirección diferenciadora y competitiva de las comunidades
que logren transformarse positivamente a partir de ellas.
Sin embargo, ese fenómeno tecnológico sucede de
manera diferente entre personas, comunidades, sectores,
países y regiones, en la denominada brecha digital y su
2
Algunos cambios son: independencia, mayor exigencia por una
disminución del tiempo de respuesta, cambio en el funcionamiento de las
políticas y formas de trabajo de las instituciones de servicio, surgimiento de
nuevos puntos de acceso a internet, y la entrada en escena de los gobiernos
y la empresa privada ofreciendo conectividad a internet y servicios y
productos en la web [1].
Universidad Católica de Pereira
82
enfrentamiento, mediante iniciativas de inclusión digital,
también es diversa y en ocasiones no atienden a un proceso
planeado y fundamentado en la realidad de la población
objeto de la intervención.
Por ello, la medición de la situación digital se inicia con
la detección de desigualdades en el acceso tecnológico,
mediante diferentes metodologías e índices para determinar,
mayoritariamente, la brecha digital internacional (que señala
las diferencias entre países), y algunos la brecha digital
doméstica (diferencias al interior de cada país). Aunque se ha
pretendido tener indicadores estandarizados y generalizados,
la diversidad en la constitución de la(s) sociedad(es) de la
información y el conocimiento implica la adaptación de las
mediciones, para que sean pertinentes y flexibles sin perder
la posibilidad de hacer comparaciones.
No obstante, es claro que “existen pocos trabajos que efectúen
una revisión de los principales enfoques metodológicos,
indicadores y consensos de las principales organizaciones
promotoras de la medición de las TIC” [2]. La mayoría de
estudios se han orientado a cuantificar la infraestructura
(especialmente en cuando a cobertura), con cierto énfasis
en el uso, con poca focalización en la apropiación social
de las TIC (entendida como herramientas que facilitan
transformaciones sociales, económicas y, en general, de
desarrollo integral).
El artículo entonces, considerando lo anterior, pretende
ofrecer una mirada del sector rural en cuanto a lo digital,
especialmente desde sus instituciones educativas (IE), para
comprender la importancia de identificar la situación digital
tanto de los estudiantes como de las instituciones, al momento
de plantear estrategias de inclusión digital para comunidades
específicas. Por ello, se hace un paneo de diversos índices
e indicadores utilizados, fruto de múltiples iniciativas, para
terminar haciendo la presentación de insidir-jes, orientado a
medir la situación digital en un momento dado de un sector
poblacional específico: jóvenes estudiantes en IE rurales.
II. Lo digital en el sector rural
El contexto rural, y el concepto de ruralidad, ha evolucionado
con procesos como la globalización y la tecnificación:
“En general, se están produciendo cambios sociales,
económicos, políticos y ecológicos que afectan a la
agricultura y al medio rural y que definen también
nuevas demandas de la sociedad y el surgimiento de una
nueva estructura de oportunidades, la cual es percibida
de manera distinta en cada uno de los países, en especial,
atendiendo a las diferencias que marcan los distintos niveles
de desarrollo”[3].
El avance de las TIC es diferencial, en cuanto a su
infraestructura y servicios, en los sectores rurales y urbanos,
marcando una clara brecha digital. No se ignora que existen
diversas iniciativas de inclusión digital para la población
rural, pero “tal vez no sea realista hablar de acceso universal
a las TIC en las zonas rurales [ya que] las TIC sólo son
Entre Ciencia e Ingeniería
útiles en la medida en que habilita sistemas. (…) Con todo,
la población y las instituciones rurales no pueden utilizar
con eficacia ni contribuir a los recursos mundiales de
conocimientos e información si no se mejora su capacidad
de acceso a los mismos [pues] con frecuencia las deficiencias
no están en la infraestructura ni en los instrumentos, sino en
el proceso de su adopción y empleo” [3].
Al observar hacia las IE, se repite la situación, favorecida
por la infraestructura tecnológica existente, la preparación y
la actitud de los docentes hacia las TIC, y la falta suficiente
de contenidos pertinentes para el medio, ya que a pesar de la
incorporación progresiva de las TIC en el sector educativo,
la cual origina un escenario que “transforma la educación al
crear nuevas industrias culturales que facilitan la introducción
de cambios en las pedagogías y gestan una enorme expansión
y transformación de lo que tradicionalmente se ha llamado
educación a distancia, al favorecer una educación virtual
global y en red” [4], aún no alcanza los niveles deseables, y
menos en las instituciones del sector rural.
Adicionalmente, no puede ignorarse que la incorporación de
las TIC en la educación va más allá del equipamiento de aulas
con computadores y su conexión a Internet3, ya que la oferta
en aplicativos y opciones de servicio, para la población en
general y las instituciones educativas en específico, debería
mejorar la experiencia y aprendizaje de los alumnos, en
busca de una formación integral4, “a partir de reingenierías
de las tradicionales modalidades de la educación a distancia
de la primera y segunda generación, que se reorientaban
hacia una dinámica con componentes digitales, interactivos
y deslocalizados y en la aparición de nuevos modelos
institucionales totalmente virtualizados, tanto con docentes
interactuando dentro de las plataformas, como, inclusive,
sin interacción como se promueven los MOOCs5” [4].
3
“Si bien estos logros en cobertura son positivos, sólo revelan parte
de la realidad puesto que estos indicadores de acceso no muestran la
oportunidad real de uso que tienen los estudiantes, aspecto central toda
vez que un uso cotidiano y relevante de la tecnología es fundamental para
el desarrollo de habilidades vinculadas al mundo digital. En este sentido,
el indicador que marca la cantidad de estudiantes que deben compartir
los equipos computacionales disponibles en los centros escolares (nº de
alumnos por computador) muestra una realidad no tan auspiciosa como los
datos de cobertura discutidos anteriormente. […] Otro indicador relevante
de la oportunidad real de uso en los centros escolares es la proporción de
computadores conectados a Internet al interior de cada centro” [5].
4
“Desde la perspectiva social, la formación integral es entendida como
un proceso continuo, permanente y participativo que busca desarrollar
armónica y coherentemente todas y cada una de las dimensiones del ser
humano a fin de lograr su realización plena en la sociedad (…). Por tanto,
con base en estos aportes, el ser humano aprende para la vida, aprende a
ser ciudadano y ciudadana responsables con sus actos; aprende a hacer y
proponer, aprende a contribuir con la sociedad y, por ende, con el progreso
y el bienestar de la gente” [6].
5
“MOOC es el acrónimo en inglés de Massive Online Open Courses
(o Cursos online masivos y abiertos) Es decir, se trata de un curso a
distancia, accesible por internet al que se puede apuntar cualquier
persona y prácticamente no tiene límite de participantes. […] Además
de los materiales de un curso tradicional, como son los vídeos, lecturas
y cuestionarios, los MOOC proporcionan forums de usuarios interactivos
que ayudan a construir una comunidad para los estudiantes, profesores y
los teaching assistants” [7].
83
III. La medición de la situación digital
La brecha digital es probablemente uno de los primeros
conceptos con que se inicia la reflexión alrededor del
tema del impacto social de las TIC, al percibirse que ellas
producen diferencias en las oportunidades de desarrollo de
las poblaciones y establecen una distancia entre aquellas
que tienen o no acceso a las mismas, al igual que resaltan
inequidades previamente existentes, entre ellas de acceso a
la educación y la información. La incorporación de TIC en
la sociedad conlleva consecuencias diferentes, pues “al igual
que en su día el ferrocarril, generaron desigualdades, ahora
son las TIC. El ferrocarril llevó la riqueza a los pueblos en
los que se pusieron estaciones, pero esa riqueza se perdió en
las poblaciones que quedaron aisladas” [8].
No obstante las diversas aproximaciones a una
definición, en el presente documento la Brecha Digital se
considera como: “la distancia entre países, comunidades,
familias e individuos, manifestada por la desigualdad de
posibilidades para acceder y utilizar las nuevas tecnologías
de la información y la comunicación (TIC) como parte
rutinaria de sus actividades, de manera consciente y
sistemática. Tal brecha, que está en constante evolución, no
se refiere solamente a la tecnología, sino que abarca aspectos
culturales, socioeconómicos, políticos y de infraestructura”
[9], pues “la centralidad de Internet en muchas áreas
de la actividad social, económica y política se convierte
en marginalidad para aquellos que no tienen o que tienen
un acceso limitado a la red, así como para los que no son
capaces de sacarle partido” [10].
La medición, a partir de indicadores confiables,
es fundamental para la toma de decisiones oportunas y
adecuadas, especialmente en cuanto a la planeación e
implementación de estrategias y políticas. Sin embargo
“el ejercicio de la medición no es un ejercicio de fácil
comprensión: usualmente requiere tiempos de maduración
y asimilación de temas y preguntas, sobre todo por parte de
quienes diseñan, recolectan y responden a estas últimas”
[11].
El Observatorio para la Sociedad de la Información en
América Latina y el Caribe (OSILAC), ha construido un
sistema de información que busca integrar indicadores de
acceso y uso de TIC en hogares, acceso y uso de TIC en
empresas, así como otros indicadores de monitoreo sobre la
sociedad de la información (infraestructura, sector público,
educación, salud, etc.) [14].
ArCo es un indicador de capacidades tecnológicas,
basado en el TAI (Technology Achievement Index,
presentado por las Naciones Unidas en 2001), aunque tiene
tres categorías (creación de tecnología, infraestructura
tecnológica y habilidades personales), en vez de las cuatro
originales [15].
En Uruguay, la Unidad Reguladora de Servicios
de Comunicaciones (URSEC), calcula un Indicador de
Oportunidad Digital (IOD o DOI), utilizando la propuesta de
la Unión Internacional de Telecomunicaciones (UIT o ITU),
con tres categorías de indicadores: oportunidad (cobertura y
tarifas de telefonía móvil celular, tarifas de acceso a internet),
infraestructura (proporción de hogares con telefonía fija,
suscriptores a telefonía móvil, proporción de hogares con
acceso a internet, proporción de hogares con computadoras)
y utilización (proporción de individuos que usan internet),
suscriptores de banda ancha) [16].
El índice Ares de Brecha Digital Regional, que
usa como base la metodología del DOI, toma valores
entre 0 y 1, con categorías secuenciales (oportunidad para
participar en la sociedad de la información; infraestructura;
utilización; conocimiento; políticas públicas), que contienen
subcategorías, a las cuales se les asigna pesos conceptuales
diferenciales [17].
Una propuesta para medir la e-preparación en municipios
colombianos, plantea cuatro componentes básicos de una
sociedad de la información (infraestructura; interés de la
comunidad por participar de los procesos; apropiación de
la tecnología; capacidad individual para generar, consumir,
analizar y transmitir información), para aplicar una encuesta
que permita evaluar la situación de la población en cuanto
al interés, apropiación y capacidad frente a las TIC,
considerando las categorías: Demografía, Fuerza de trabajo,
Gobierno, Educación, Salud y - Servicios públicos [18].
En cuanto a la medición de la brecha digital, “la mayoría
de contribuciones existentes no pasan de ser visiones
meramente descriptivas y sin adentrarse en los procesos de
medición de los determinantes que lo provocan” [12], lo
cual se ratifica con que “existe una gran cantidad de índices
compuestos en el ámbito de las nuevas tecnologías. La
mayoría de ellos tratan de medir, a grandes rasgos, el grado
comparativo de preparación de los países para participar y
beneficiarse de los desarrollos en las TIC. (…) Todos ellos
se componen a partir de baterías de indicadores, los cuales
—organizados o no en dimensiones/categorías— se agregan
ponderadamente para obtener un valor final comparable”
[13].
El Índice de Desarrollo de las TIC (IDI) de la UIT clasifica
157 países en función de su nivel de acceso, utilización y
conocimientos de las TIC, y compara las clasificaciones
anuales. Para el informe del año 2012, incorpora un nuevo
modelo que permite evaluar la población mundial de nativos
digitales6 (entendido como un joven conectado de 15 a 24
años de edad con cinco o más años de experiencia en línea)
[19].
A continuación se presenta un listado de iniciativas
tendientes a medir la brecha digital, donde se incluyen
algunas dirigidas al campo académico:
6
En 2012 había unos 363 millones de nativos digitales en una población mundial de unos 7000 millones, lo que equivale al 5,2% del total
y 30% de los jóvenes [19].
Universidad Católica de Pereira
84
En Costa Rica se realiza una evaluación de la brecha
digital entre estudiantes de secundaria, a partir de una
encuesta, con cinco módulos. “El módulo general incluye
información básica: tal aspectos personales, familiares,
condición económica y preguntas generales sobre las TIC.
Los restantes cuadro módulos contienen las consultas sobre
aspectos específicos de tenencia, uso y actitud hacia las
tecnologías” [20].
En Cuba, se diseña un instrumento para medir el peso
que tiene, en el desempeño académico de los estudiantes
universitarios, el nivel de uso y acceso a las TIC; aplicado en
la Facultad de Economía de la Universidad de La Habana,
para lo cual se construyeron 15 indicadores que permiten
establecer el nivel de acceso y uso de algunas TIC por parte
de estos estudiantes [21].
En México, con el objetivo de explorar la influencia
de la posesión de dispositivos digitales portátiles y la
literacidad digital académica, con el área terminal de los
estudiantes de la Facultad de Pedagogía, se utiliza un
instrumento con 44 preguntas cerradas, de tipo Likert (muy
de acuerdo, de acuerdo, indeciso, en desacuerdo, muy en
desacuerdo, por mencionar un ejemplo), y dicotómicas
(si o no), además de dos preguntas abiertas, organizado
en 11 secciones (literacidad digital académica, ciudadanía
digital, programas y sistemas de información relativos a tu
área de conocimiento, dispositivos, archivos, socialización
y colaboración, creación y manipulación de texto y texto
enriquecido, contenido multimedia, manejo de datos,
comunicación, y afinidad tecnológica), contemplando
cinco secciones: dispositivos; socialización y colaboración;
comunicación; literacidad digital académica; y nivel
socioeconómico [22].
En el mismo país, se realiza un estudio, donde “el
instrumento y la escala de medición se diseñaron entonces,
de manera tal que reflejaran el modelo conceptual
simplificado con sus cinco dimensiones [uso, acceso,
apropiación, empoderamiento e innovación] y su naturaleza
lineal y aditiva, es decir que siguiera la representación del
siguiente modelo: Cibercultura estudiantil = f (Acceso a las
TIC + Uso de las TIC + Apropiación tecnológica y social de
las TIC + Empoderamiento + Innovación social y desarrollo
humano)” [23].
- En 2014 se hace una propuesta de un índice para medir
la situación rural en dichas comunidades, denominada
insidir [9], que sirve de base para el desarrollo del planteado
en el presente documento.
Aunque se han iniciado análisis para aspectos
específicos, no se ha encontrado una metodología o sistema
de medición de brecha digital dirigido a comunidades
rurales (excepto insidir), y menos a medirla con miras a
ser una herramienta para la toma de decisiones respecto
a la educación rural, aunque proporcionen categorías,
indicadores y procedimientos que pueden ser adaptados en
un nuevo índice.
Entre Ciencia e Ingeniería
IV. Índice de situación digital rural – jóvenes
Escolarizados, insidir-jes
Es claro que la incorporación de las TIC en la cotidianidad,
se da en los diferentes grupos poblaciones con una amplia
diversidad de situaciones. Entre los grupos donde se presenta
un crecimiento continuo en la relación con estas tecnologías,
corresponde a los jóvenes y adolescentes. “La permeabilidad
de los jóvenes hacia las tecnologías en general obedece a
dos factores: el primero está relacionado con una exposición
temprana a las TIC. (…) Es una generación que ha invertido
muchas horas en la manipulación de aparatos de tecnología
digital, lo que hace que el salto a las computadoras y a la
Internet, se configure como algo prácticamente “natural”.
El segundo factor es el conocimiento. En la familia, los y
las jóvenes son los mejor informados sobre las innovaciones
tecnológicas y de la amplia gama de productos multimedia
que sistemáticamente salen al mercado; en esta condición
orientan la compra familiar. Igualmente, son los que mejor
conocen las cualidades y la operación de los equipos” [20].
Acorde con lo anterior, “cabe preguntarse cómo los
jóvenes, señalados como protagonistas principales de la era
digital, se enfrentan al desafío de ser el objeto de políticas
públicas específicas que promueven su inclusión en el
mundo digital, cuando sus oportunidades y capacidades
de apropiación son muy distintas según el sector social,
capital tecnológico y capital cultural. Otra pregunta es
si la escuela, con la incorporación de las tecnologías
digitales en las aulas, ofrece nuevas oportunidades para
que los estudiantes produzcan conocimiento relevante,
sean autónomos, discriminen fuentes confiables y trabajen
colaborativamente” [24].
El diseño del índice de situación digital rural – jóvenes
escolarizados, insidir-jes, tiene como punto de partida la
propuesta de Índice de situación digital rural, insidir [9]
y comprende dos aspectos fundamentales: - proceso de
adquisición de la información y - organización de los datos
para obtenerlo. Para la adquisición de la información, se parte
de un instrumento tipo encuesta, que consideran aspectos
utilizados en los índices consultados, que se complementan
con algunos propios del contexto rural (Tabla 1).
La obtención de información para la prueba presentada
se realiza en línea, a estudiantes de grados 9 a 11 de IE
ubicadas en zonas rurales de los departamentos de Caldas,
Huila, Cauca y Nariño. Para la presentación de este artículo
se utilizan los datos suministrados por 78 estudiantes de siete
IE.
Una vez obtenida la información, se organiza en una
matriz ubicando las diferentes variables consideradas, y se
hacen los cálculos respectivos, mediante fórmulas que acogen
los valores adjudicados a cada ítem. El diseño del índice
parte de considerar que se trata de un indicador compuesto
con ponderación de los indicadores, donde se recogen los
85
datos obtenidos con la aplicación del instrumento, dándole
pesos diferentes de acuerdo con su incidencia e importancia
en la determinación del índice, soportado en la revisión
documental, la opinión de expertos y un proceso de varios
años haciendo pruebas y ajustes para consolidarlos. De esa
manera se establecen tres subíndices:
Tabla i.
Categorías consideradas en el instrumento para recolección de
Información
Aspectos
Categoría
Datos
del encuestado
Telefonía móvil
celular
TIC, en parte favorecido por situaciones relacionadas
con el estamento educativo, como: - es común priorizar
la infraestructura sobre los procesos que lleven a su
apropiación, - la brecha generacional entre docentes y
estudiantes es palpable, - suele presentarse la prohibición
del uso de dispositivos en clase, en vez de aprovechar sus
potencialidades.
Tabla II.
Insidir-Jes y sus subíndices de 78 jóvenes estudiantes
Código
IFFTIC
IATIC
IUTIC
INSIDIR-JES
AFBP-824
0,619
0,608
0,394
0,492
Conformación familiar
Edad / Sexo
ALLQ-170
0,596
0,000
0,000
0,089
Ubicación de la vivienda
Escolaridad
AMOV-294
0,623
0,457
0,190
0,335
Servicios residenciales
Datos de los padres
ATLG-312
0,623
0,603
0,372
0,478
Tiempo histórico de uso
Tipo de servicio
BFCH-626
0,613
0,425
0,187
0,322
BSBG-607
0,765
0,651
0,337
0,495
Frecuencia de uso
Tipo de uso
CQM-671
0,582
0,627
0,262
0,419
Tipo de dispositivo
Dificultades de uso
CRP-571
0,631
0,476
0,208
0,352
Tiempo histórico de uso
Tipo de servicio
DAAA-561
0,713
0,000
0,000
0,107
Lugar de acceso
Frecuencia de uso
DAGG-696
0,541
0,000
-0,002
0,080
Tipo de uso
Tipo de dispositivo
DCC-724
0,592
0,374
0,266
0,347
Tecnología acceso internet
Dificultades de uso
DCCP-996
0,583
0,640
0,244
0,414
Tiempo histórico de uso
Tipo de servicio
DCSP-503
0,621
0,427
0,185
0,323
Lugar de acceso
Frecuencia de uso
DGCC-787
0,556
0,662
0,289
0,441
Tipo de uso
Tipo de dispositivo
DJGB-349
0,585
0,000
0,000
0,088
Tecnología acceso internet
Dificultades de uso
DLAC-934
0,564
0,138
0,097
0,179
DLM-880
0,660
0,383
0,290
0,373
DLRL-774
0,599
0,140
0,101
0,188
DYLG-150
0,578
0,582
0,282
0,416
DZM-792
0,670
0,199
0,119
0,226
EACT-220
0,632
0,000
0,000
0,095
EDSG-801
0,717
0,442
0,338
0,426
EFSB-561
0,651
0,706
0,546
0,610
EJL-742
0,591
0,499
0,160
0,327
EMO-749
0,586
0,241
0,190
0,265
EXCC-058
0,588
0,662
0,364
0,487
GAAB-925
0,594
0,646
0,412
0,509
GARA-802
0,606
0,187
0,092
0,198
HFCF-397
0,600
0,384
0,149
0,287
– IFFTIC o índice de factores favorables hacia TIC, con un
peso de 0.150, aborda aquellas circunstancias determinantes
para que los jóvenes accedan y utilicen las TIC, que incluyen
aspectos familiares, económicos, geográficos y personales.
HLCL-336
0,603
0,177
0,157
0,230
HLQC-187
0,547
0,558
0,281
0,404
HMT-012
0,585
0,000
0,000
0,088
JAB-984
0,620
0,000
0,000
0,093
Luego de realizar el procedimiento de organización y
análisis, que permite obtener los mencionados subíndices y
el índice compuesto, en la Tabla II se resumen los resultados
obtenidos.
JAG-367
0,580
0,000
0,000
0,087
JAGL-907
0,605
0,498
0,223
0,363
JAGM-326
0,638
0,248
0,087
0,218
JAM-172
0,671
0,677
0,528
0,594
En ellas puede verse que a pesar de existir factores
que favorecerían el acceso y uso de las TIC (ifftic
promedio= 0.613), que no se materializan (insidir-jes
promedio= 0,313) debido especialmente al uso dado a las
JAPA-255
0,615
0,531
0,206
0,365
JCRA-745
0,642
0,335
0,248
0,333
JDDB-518
0,598
0,199
0,132
0,222
JESV-608
0,747
0,615
0,358
0,493
Computadora
Tableta
- IATIC o índice de acceso a TIC, con peso de 0.300,
se relaciona con los servicios e infraestructura, tanto en la
institución educativa, el hogar y sitios públicos, a que tiene
acceso el joven.
- IUTIC o índice de uso de TIC, con peso de 0.550,
recoge qué, para qué y cómo se utilizan las TIC (a partir de
computadoras y dispositivos móviles), la frecuencia con que
se usa y las dificultades que se tienen al momento de hacerlo,
lo que permite valorar el uso y la apropiación (entendida
como el uso con valor agregado, que transforma), lo que se
convierte en factor diferencial de la propuesta.
Universidad Católica de Pereira
86
JEVL-505
0,563
0,454
0,177
0,318
JFCP-902
0,529
0,158
0,075
0,168
JILO-463
0,646
0,441
0,234
0,358
JLSS-617
0,599
0,570
0,249
0,397
JLTT-660
0,598
0,000
0,000
0,090
JSAL-171
0,572
0,000
0,000
0,086
JSFR-260
0,618
0,138
0,104
0,191
JSPT-255
0,666
0,729
0,580
0,638
KACG-788
0,620
0,711
0,358
0,503
KVM-363
0,565
0,366
0,156
0,280
LAGG-839
0,602
0,000
-0,002
0,089
LMHC-018
0,769
0,661
0,519
0,599
LVCC-795
0,579
0,640
0,221
0,400
MACP-750
0,759
0,366
0,239
0,355
MACU-799
0,575
0,242
0,133
0,232
MATL-663
0,599
0,138
0,097
0,184
MCBM-590
0,567
0,571
0,269
0,405
MCC-730
0,574
0,606
0,327
0,448
MEBL-643
0,572
0,360
0,098
0,247
MEP-445
0,509
0,187
0,057
0,164
METT-679
0,513
0,162
0,107
0,184
MJHM-841
0,606
0,138
0,101
0,188
MMBG-703
0,731
0,710
0,369
0,525
MYMV-014
0,640
0,518
0,255
0,392
NSH-514
0,662
0,402
0,317
0,394
PCTT-483
0,590
0,349
0,190
0,297
RAAP-913
0,561
0,150
0,164
0,219
VAAB-227
0,614
0,665
0,186
0,394
VLB-193
0,655
0,187
0,138
0,230
VPV-904
0,589
0,417
0,228
0,339
WBV-057
0,673
0,484
0,347
0,437
WSLL-302
0,599
0,199
0,122
0,217
YBD-213
0,563
0,150
0,096
0,182
YBD-230
0,551
0,207
0,133
0,218
YBUG-992
0,687
0,694
0,276
0,463
YPBO-598
0,613
0,624
0,219
0,400
YSQC-909
0,605
0,396
0,260
0,353
Promedio
0,613
0,369
0,201
0,313
Dado que el índice permite determinar la situación
digital personal en un momento dado, y a partir de estos
datos se pueden establecer índices colectivos, en la Fig. 1
se presentan los INSIDIR-JES y sus subíndices de las siete
instituciones educativas consideradas, que muestran las
diferencias entre ellas en cuanto al acceso y uso de las TIC,
a pesar de tener similitud en los factores favorables.
Entre Ciencia e Ingeniería
Fig. 1. Subíndices e índice compuesto insidir-jes, de siete
instituciones educativas rurales.
De igual manera, es posible hacer comparativos
históricos, lo cual señala su utilidad en proyectos tipo serie
cronológica, donde se establezca la situación de manera
previa (pretest) y puedan realizarse diferentes mediciones
en el trascurso de la intervención (postest), e inclusive a
posteriori, para identificar los impactos alcanzados por
la intervención, como puede verse en la Fig. 2, calculado
para cuatro de las IE participantes.
Fig. 2. Subíndices e índice compuesto insidir-jes, de cuatro
instituciones educativas rurales, en el momento inicial y final de la
intervención realizada.
INSIDIR-JES, a diferencia de índices consultados,
considera características específicas del grupo humano
(jóvenes estudiantes del sector rural), que permiten
mediciones ‘a la medida’ en función de un entorno dado,
las cuales posibilitan la toma de decisiones pertinentes,
además de considerar aspectos específicos de uso académico
relacionados de manera directa con el grupo poblacional.
87
V. Conclusiones
La brecha digital es una realidad debido a diversos factores
socioeconómicos y geográficos que ocasionan diferencias en
las oportunidades de desarrollo individual y colectivo. Una
adecuada medición de ella, señala opciones más adecuadas
para tomar las decisiones oportunas y pertinentes, en busca
de que las TIC puedan ayudar a mejorar la calidad de vida
de sus usuarios.
INSIDIR-JES es un índice compuesto, orientado al
segmento poblacional de los jóvenes escolarizados del
sector rural, buscando identificar su realidad digital,
considerando su relación con el proceso académico que vive.
Adicionalmente, permite hacer seguimiento histórico, tanto
a escala individual como colectivo.
A toda iniciativa de inclusión digital debe anteceder
un proceso de identificación amplia de la realidad de la
comunidad a la cual se dirige el proyecto, lo cual es facilitado
con la aplicación de índices como el propuesto. Sin embargo,
la información recolectada y analizada no se restringe a lo
digital y puede ser útil para otros procesos, de índole público
o privado, orientados al bienestar comunitario.
Dado que la inclusión digital corresponde a un proceso
continuo de los estadios: acceso a las TIC, uso de las TIC
y apropiación de las TIC, que se hace diferencialmente en
personas y comunidades, el estamento educativo entra a ser
un factor fundamental en su consecución… es pertinente
recordar que el niño o el joven normalmente accede a los
dispositivos de manera informal, pero es debido al potencial
de las TIC que es necesario el surgimiento del docente como
“un guía que permite a los estudiantes, desde la primera
infancia y durante toda la trayectoria de su aprendizaje,
desarrollarse y avanzar en el laberinto cada vez más
intrincado del conocimiento” [25], y así prevenir que “la
escolaridad obligatoria no cumpliese su función básica de
alfabetizar, entendida ésta como preparación para la vida en
la sociedad digital” [26].
Referencias
[1] M.D. Muñoz y R. Nicaragua, (2014, ene.). “Un
acercamiento a la brecha digital en Costa Rica desde el punto de vista
del acceso, la conectividad y la alfabetización digital”, E-Ciencias de la
Información, 4(1,1), pp. 1-29. Disponible en: http://revistas.ucr.ac.cr/
index.php/eciencias/article/view/12866
[2] M.V. Alderete (2012, jul-dic.). “Medición de las tecnologías de la
información y la comunicación en empresas de servicios de Colombia”.
Cuadernos de Administración 25(45), pp. 39-62. Disponible en: http://
www.redalyc.org/articulo.oa?id=20524844003
[3] Programa Sociedad de la Información y el Conocimiento, Prosic.
“Capítulo 8: Información y Comunicación en el mundo rural”. En:
Informe 2010: Hacia la Sociedad de la Información y el Conocimiento
en Costa Rica, cap. 8, San José: Prosic, 2010, pp. 253-274. Disponible
en:
http://www.prosic.ucr.ac.cr/sites/default/files/documentos/
capitulo_08_3.pdf
[4] C. Rama. “El contexto de la Reforma de la Virtualización en América
Latina”. En Arboleda, N y Rama, C. (eds.), La Educación Superior a
Distancia y Virtual en Colombia: Nuevas realidades, N. Arboleda y C.
Rama, eds., Bogotá, ACESAD/Virtual Educa, 2013, pp. 21-29.
[5] M. Claro, A. Espejo, I. Jara y D. Trucco, D. (2011). Aporte del sistema
educativo a la reducción de las brechas digitales: Una mirada desde
las mediciones PISA. Documento de proyecto. Santiago de Chile:
Comisión Económica para América Latina y el Caribe (CEPAL).
39 p., 2011. Disponible en: http://repositorio.cepal.org/bitstream/
handle/11362/3958/S1100916_es.pdf?sequence=1
[6] E. Quirós Meneses y X. Jiménez Sánchez (2013, may-ago.). “La actitud
hacia la docencia, la formación integral en la educación secundaria y
a su proyecto de vida: una visión desde los estudiantes de colegios
en áreas rurales”, Revista Electrónica Educare, 17(2), pp. 91-109.
Disponible en: http://www.revistas.una.ac.cr/index.php/EDUCARE/
article/download/5022/4805
[7] Universitat Autònoma de Barcelona (2015). ¿Qué es un curso MOOC?.
Disponible en: http://www.uab.cat/web/estudiar/mooc/-que-es-uncurso-mooc-1345668281247.html
[8] M. Barrenetxea y A. Cardona (2002). “La brecha digital como fuente
de nuevas desigualdades en el mercado de trabajo”, VIII Jornadas de
Economía Crítica: Globalización, Regulación Pública y Desigualdades.
Valladolid, España, febrero 28-marzo 02, 2002. Disponible en: http://
pendientedemigracion.ucm.es/info/ec/jec8/Datos/documentos/
comunicaciones/Laboral/Barrenetxea%20Miren.PDF
[9] O.A. Vega. “Inclusión digital de comunidades rurales colombianas”,
Tesis doctoral dirigida por L. Rodríguez Baena, Facultad de
Informática, Universidad Pontificia de Salamanca, Madrid, 2014.
[10] M. Castells. La galaxia Internet, Barcelona: Plaza & Janés Editores,
2001.
[11] D. Olaya y F. Peirano (2007, ago.). “El camino recorrido por
América Latina en el desarrollo de indicadores para la medición de
la sociedad de la información y la innovación tecnológica”, Revista
Iberoamericana de Ciencia Tecnología y Sociedad, CTS, 3(9), pp. 153185. Disponible en: http://www.scielo.org.ar/scielo.php?pid=S185000132007000200010&script=sci_arttext
[12] L. Cerno y T. Pérez Amaral (2006). “Medición y determinantes de la
Brecha Tecnológica en España”, Documentos de Trabajo del Instituto
Complutense de Análisis Económico, (0601), pp. 1-44. Disponible en:
http://eprints.ucm.es/7909/1/0601.pdf
[13] C. Castaño, J. Martín y J.L. Martínez (2011, oct-dic.). “La brecha
digital de género en España y Europa: medición con indicadores
compuestos”, REIS: Revista Española de Investigaciones Sociológicas,
(136), pp. 127-140. Disponible en: http://www.reis.cis.es/REIS/PDF/
REIS_136_061318594338821.pdf
[14] Comisión Económica para América Latina y el Caribe, CEPAL.
“Observatorio para la Sociedad de la Información en América Latina
y el Caribe OSILAC”, Cuarto Taller sobre la Medición de la Sociedad
de la Información en América Latina y el Caribe, San Salvador, feb.
11-12, 2008. Disponible en: http://www.cepal.org/socinfo/noticias/
noticias/7/32357/ConclusionesTallerElSalvador-EspUV.pdf
[15] D. Archibugi y A. Coco (2004, apr.). “A New Indicator of Technological
Capabilities for Developed and Developing Countries (ArCo)”,
World Development, 32(4), pp. 629–654. Disponible en: http://www.
sciencedirect.com/science/article/pii/S0305750X04000051
[16] Instituto Nacional de Estadística, INE. Encuesta Nacional de Hogares
Ampliada 2006: Utilización de las Tecnologías de la Información y las
Comunicaciones en el Uruguay. Montevideo: INE. 29 p. 2007.
[17] J.I. Araya Morales y H. Estay Jara. “Brecha digital regional de Chile”,
Seminario de título Ingeniero Comercial mención Economía, dirigido
por J. Katz Spliniac, Universidad de Chile, Facultad de Economía y
Negocios, Santiago de Chile, 2006.
[18] D.A. Chavarro, M. García, D. Lucio, J. Lucio, C. Avendaño, E. Suárez,
L. Orozco y V. Bucheli. Construcción de una metodología para medir
la e-preparación en municipios colombianos. Aplicación de una
prueba piloto en Castilla la Nueva (Meta) y Guaduas (Cundinamarca).
Bogotá: Observatorio Colombiano de Ciencia y Tecnología,
OCyT. 2004. Disponible en: https://www.academia.edu/1069946/
Construcci%C3%B3n_De_Una_Metodolog%C3%ADa_Para_
Medir_La_E-Preparaci%C3%B3n_En_Municipios_Colombianos_
Aplicaci%C3%B3n_De_Una_Prueba_Piloto_En_Castilla_La_
Nueva_Meta_Y_
[19] Unión Internacional de Telecomunicaciones, UIT (2013, oct. 7).
“La UIT publica las cifras técnicas y clasificaciones mundiales más
Universidad Católica de Pereira
88
recientes”, Comunicado de prensa. Disponible en: http://www.itu.int/
net/pressoffice/press_releases/2013/41-es.aspx#.VQSK7I6G840
[20] F. Cuevas y V. Álvarez. Brecha digital en la Educación Secundaria: El
caso de los estudiantes costarricenses, San José: Prosic. 2009.
[21] Y. Pérez Cárdenas (2012, dic.) “Herramienta para medir el impacto
del nivel de uso y acceso a algunas TIC en el promedio académico
de estudiantes de la Facultad de Economía de la Universidad de La
Habana”. Atlante, Cuadernos de Educación y Desarrollo (2da época)
(30), pp. 1-17. Disponible en: http://atlante.eumed.net/wp-content/
uploads/wp-post-to-pdf-cache/1/herramienta-para-medir-el-impactodel-nivel-de-uso-y-acceso-a-algunas-tic-en-el-promedio-academicode-estudiantes-de-la-facultad-de-economia-de-la-universidad-de-lahabana.pdf
[22] J.L. Aguilar Trejo, A. Ramírez Martinell y R. López González (2014,
ene.). “Literacidad digital académica de los estudiantes universitarios:
un estudio de caso”. Revista Electrónica de Investigación y Docencia
(REID), (11), pp. 123-146. Disponible en: http://revistaselectronicas.
ujaen.es/index.php/reid/article/download/1257/1083
[23] J.R. Romo González, J. Tarango Ortiz, G. Ascencio Baca y P. Murguía
Jáquez. (2014). “Medición de la cibercultura estudiantil, confiabilidad
y validez de una escala aplicada: caso de la Universidad Autónoma
de Chihuahua”. Anales de Documentación, 17(1):1-13. Disponible en:
http://dx.doi.org/10.6018/analesdoc.17.1.173011
[24] S. Lago Martínez (2012, jul-dic.). “Los jóvenes y la cultura digital:
Nuevos desafíos de la educación en Argentina”, Diálogos sobre
Educación, 3(5), pp. 1-17. Disponible en: http://www.revistadialogos.
cucsh.udg.mx/sites/default/files/dse_a3_n5_jul-dic2012_lago.pdf
[25] Organización de las Naciones Unidas para la Educación, la Ciencia y
la Cultura, Unesco. Hacia las sociedades del conocimiento: Informe
Mundial de la Unesco. París (Francia): Unesco. 2005. Disponible en:
http://unesdoc.unesco.org/images/0014/001419/141908s.pdf
[26] A. Gutiérrez Marín y K. Tyner (2012, mar.). “Educación para
los medios, alfabetización mediática y competencia digital”.
Comunicar: Revista Científica de Educomunicación, 19(38), pp.
31-39. Disponible en: http://www.revistacomunicar.com/verpdf.
php?numero=38&articulo=38-2012-05
Omar Antonio Vega nació en Victoria
(Caldas, Colombia). Se graduó como Ingeniero
Agrónomo en la Universidad de Caldas
(Manizales, Colombia) en 1987. Como
posgrados, alcanzó los títulos de Especialista en
Informática y Computación de la Universidad
de Manizales (Manizales, Colombia) en 2010;
Magíster en Orientación y Asesoría Educativa
por las Universidades Externado de Colombia y
Católica de Manizales (Manizales, Colombia)
en 1997; Magíster en Educación.Docencia en la
Universidad de Manizales (Manizales, Colombia),
en 2004 y Doctor en Ingeniería Informática: Sociedad de la Información
y el Conocimiento por la Universidad Pontificia de Salamanca (Madrid,
España) en 2015.
Ha ejercido como docente en las universidades de Manizales y de
Caldas, así como en el Ceres Chinchiná. Actualmente es Profesor titular
en la Facultad de Ciencias e Ingeniería de la Universidad de Manizales,
donde además es integrante del grupo de investigación ‘Sociedad de la
investigación y el conocimiento’, en el cual lidera la línea en Inclusión
digital, así como editor/director de la revista Ventana Informática.
Entre Ciencia e Ingeniería
89
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 89-98
Tecnología de membranas: desarrollo histórico1
Membrane technology: historical development
Tecnologia de membranas: desenvolvimento histórico
C.A. Solís, C.A. Vélez y J.S. Ramírez
Recibido Septiembre 26 de 2015 – Aceptado Febrero 19 de 2016
Resumen— La Tecnología de Membrana permite separar
materiales de distinto peso molecular, lo que hace que su
desarrollo haya sido muy importante a través de la historia,
reduciendo costos energéticos y preservando los recursos no
renovables entre otros factores. Hoy en día tiene múltiples
aplicaciones, como es el caso de la obtención de las proteínas
del lactosuero, la desalinización del agua de mar, la limpieza de
aguas residuales, la obtención de componentes volátiles a partir
del café soluble, etc. Esta revisión presenta una descripción
del desarrollo de las tecnologías de membranas y sus más
importantes aplicaciones.
Palabras clave— Tecnologías de Membrana, componentes
volátiles, proteínas del lactosuero.
Abstract— Membrane Technology allows to separate
materials of different molecular weight, and that is why this
technology has been very important through history, reducing
energy cost and preserving natural resources. Nowadays
it has a lot of applications such as obtaining whey proteins,
desalination of seawater and wastewater cleanup, obtaining
volatile components from soluble coffee, among others. In this
review a description of Membrane Technology development
and its critical applications is introduced.
Key words—Membrane Technologies, volatile component,
whey protein.
1
Producto de investigación del Grupo de Investigación Ingeniería de
Procesos Agroalimentarios y Biotecnológicos (GIPAB), de Escuela de
Ingeniería de Alimentos de la Universidad del Valle.
C.A. Solís Carvajal, es Ingeniero de Alimentos, Escuela de Ingeniería
de Alimentos, de la Universidad del Valle, Cali (Colombia).
C.A. Vélez Pasos, es Director de la Escuela de Ingeniería de Alimentos,
de la Universidad del Valle, Cali (Colombia).
J.S. Ramírez es Docente en la Escuela de Ingeniería de Alimentos, de
la Universidad del Valle, Cali (Colombia). email: juan. [email protected]
correounivalle.edu.co
Resumo – A tecnologia de Membrana permite separar
materiais de distinto peso molecular, o que torna seu
desenvolvimento muito importante através da historia,
reduzindo custos energéticos e preservando os recursos não
renováveis entre outros fatores. Hoje em dia tem múltiplas
aplicações, como é o caso da obtenção das proteínas do lactosoro, a dessalinização da agua do mar, a limpeza de aguas
residuais, a obtenção de componentes voláteis a partir do
café solúvel, etc. Esta revisão apresenta uma descrição do
desenvolvimento das tecnologias de membranas e suas mais
importantes aplicações.
Palavras chave: Tecnologias de Membrana, componentes
voláteis, proteínas do lacto-soro.
I. Introducción
A
l proceso mediante el cual se separan dos o más
componentes de una corriente utilizando una
membrana (o filtro) se denomina filtración[1]. En este
proceso los fluidos se hacen circular sobre superficies
semipermeables que los componentes de dichos fluidos
atraviesan de manera selectiva sin experimentar alteraciones
químicas ni físicas. La membrana actúa como una barrera
semipermeable y la separación ocurre porque la membrana
controla la cantidad de movimiento de varias moléculas
entre las fases. Las dos fases fluidas suelen ser miscibles
y la barrera de la membrana impide el flujo hidrodinámico
normal [2-4].
Universidad Católica de Pereira
90
La Tecnología de Membranas (TM) es un método de
filtración de solutos disueltos en un fluido, cuyo fundamento
es la separación por la diferencia de los pesos moleculares y
el tamaño de partícula [5]. El desarrollo que ha tenido la TM
estas últimas décadas se evidencia en los numerosos trabajos
de investigación que se realizan en la materia, abarcando
tanto el desarrollo de nuevos materiales para membranas,
como la modelización de diversos procesos de separación
por membranas y en el análisis de las variables de dichos
procesos [6]. La TM ha sido el foco de atención de muchas
industrias, lo que ha generado un sólido y creciente mercado.
Estudios reportados por The Freedonia Group, Inc. (http://
www.freedoniagroup.com), proyectan una demanda con un
incremento anual en las ventas de membranas de un 8,7%
para Estados Unidos, y un 8,6% a nivel mundial.
Se espera, en este siglo 21, que la TM junto a las nuevas
tecnologías incremente su rendimiento y permita resolver
los problemas de abastecimiento de agua, mediante la
desalinización [7]. Según un informe reciente de SBI Energía
(http://www.sbireports.com) la industria de la separación
por membranas, con la desalinización de agua, alcanzará
los 54,2 billones de dólares en 2020, mientras que en 2010
alcanzó $12,5 billones de dólares y en 1988 los $4,4 billones
de dólares [8, 9].
El desarrollo de las membranas, debido a su gran capacidad
para seleccionar según el peso molecular los solutos
disueltos en una corriente liquida, ha optimizado diversos
procesos industriales, tal como la desalinización del agua
de mar, el aprovechamiento de los componentes de leche
y lactosuero, el mejoramiento de las pinturas, la obtención
de compuestos activos en la industria farmacéutica, entre
otros. El fin de la presente revisión es presentar al lector una
visión general de la tecnología de membranas abarcando su
desarrollo histórico y sus aplicaciones.
II. Desarrollo histórico
En la antigüedad ya se utilizaban de manera empírica los
procesos de filtración para separar y mejorar la calidad de
mezclas líquidas. En el poema filosófico De natura rerum
(60 a.C.) el poeta latino Tito Lucrecio Caro cuenta como el
hombre aprendió a purificar el agua filtrándola a través de la
tierra o la arena [10]. Durante muchos siglos para separar las
sustancias en suspensión de un líquido se utilizaron arcillas,
gelatinas, resinas, pergaminos y membranas intestinales [11,
12].
Los primeros trabajos científicos con membranas
fueron realizados por M. La Hire en 1688, quien evaluó
la permeabilidad de vejigas de cerdo con relación al agua
y al alcohol [13], encontrando que era más permeable al
agua [11].
Desde 1748 hasta inicios del siglo XX, las investigaciones
se centraron en estudiar las propiedades de “barrera
física”; periodo conocido como “la edad de la inocencia
Entre Ciencia e Ingeniería
de la membrana”. Donde se desarrollaron teorías y leyes
fenomenológicas relacionadas con los procesos de membrana
[14] y como herramientas de laboratorio para desarrollar
teorías físicas y químicas.
En 1752, el físico francés Jean Antoine Nollet, estableció
los principios básicos de “osmosis” [13]. En 1827, el
médico, biólogo y fisiólogo francés René Joachim Henri
de Dutrochet Neones descubrió que al someter líquidos
de diferentes densidades a través de membranas (usando
material inorgánico muy fino de forma cilíndrica, dispuesto
en un capilar vertical), uno de ellos tiende a ascender más
que los otros, evidenciando así los fenómenos de endosmosis
y exosmosis, concluyendo que hay una relación directa entre
la permeabilidad preferente de un determinado fluido y la
altura que éste alcanza en el medio filtrante [15-17].
En 1855, Adolf Eugen Fick expuso por primera vez las
leyes que rige el transporte de masa a través de medios
de difusión [18]. En 1861, Thomas Graham demostró que
existían membranas semipermeables, que permitían el
paso de sustancias disueltas de bajo peso molecular, pero
impedían el de las partículas coloidales, también demostró
que la velocidad de difusión de un gas es inversamente
proporcional a la raíz cuadrada de su densidad, relación
conocida como ley de Graham [19].
En 1864, Moritz Traube construyó la primera membrana
semipermeable artificial, él empleó su tamiz molecular
para el desarrollo de la primera teoría fisicoquímica del
crecimiento de células de la planta [20-22]. En 1887,
van’t Hoff desarrolló la ley límite y la ecuación que lleva
su nombre, que explican el comportamiento de soluciones
diluidas ideales [23], basándose en las mediciones realizadas
por Traube y Pfeffer. Paralelamente, Maxwell [24] y otros
investigadores desarrollaron gran parte de la teoría cinética
de los gases, empleando el concepto de una membrana
semipermeable perfectamente selectiva. Durante este
periodo, las membranas no tuvieron usos industriales o
comerciales.
En el siglo XX se destacan varios trabajos. Bechhold [25]
desarrolló la primera membrana sintética de ultrafiltración
(nitrocelulosa), y fue el primero en medir puntos de burbuja
de membrana y también acuño el término “ultrafiltro”. En
1920, Zsigmondy y Bachmann, Ferry y Elford hicieron
importantes avances en membranas de ultrafiltración y
microfiltración a escala piloto [26-28]. En 1950 Gerald
Hassler introdujo el primer concepto de la desalinización
del agua empleando membranas [29]. En 1958, Sidney Loeb
y Srivasa Sourirajan comenzaron a trabajar en un proyecto
conjunto sobre membranas y dos años después presentaron
la primera membrana asimétrica de acetato de celulosa.
En la Tabla I se resumen los principales acontecimientos
históricos ocurridos desde los trabajos de Nollet. En la
Figura1 se muestra una línea de tiempo que resume la
evolución de la TM.
91
Tabla I
Desarrollo de teorías y leyes relacionadas con el proceso de
separación por membranas
Año
Ecuación Fenomenológica
Modelo Teórico
membranas compuestas de capa fina adicionando
grupos funcionales químicos a la superficie de la membrana, tales como grupos carboxílicos o sulfónicos, para
mejorar la retención de determinadas impurezas [34].
Los trabajos mencionados permitieron la evolución de los
métodos de filtración, tal como se describe a continuación:
1748
Ósmosis
Nollet
1803
Electroósmosis
Reus
1816
Electroósmosis
Porret
1855
Difusión
Fick
1861
Diálisis
Graham
Procesos con
membrana
País
Año
Aplicación
1887
Presión osmótica
Van`tHoff
Microfiltración
Alemania
1920
Uso en laboratorio
(filtro de bacterias)
1889
Transporte de electrolitos
Nernst-Plank
Ultrafiltración
Alemania
1930
Uso de laboratorio
1905
Presión osmótica
Einstein
1907
Potencial de membrana
Henderson
Hemodiálisis
Holanda
1950
Riñón artificial
1911
Equilibrio de membrana
Donnan
1930
Osmosis anómala
1936
Tabla II
Desarrollo (técnico) de los procesos con membranas
Electrodiálisis
USA
1955
Desalinización
Sollner
Osmosis inversa
USA
1960
Membranas iónicas
Meyer, Siever
USA
1981
1937
Membranas iónicas
Teorell
Separación de
gases
1950
Modelo de poro
Schmid
Pervaporación
AlemaniaHolanda
1982
Desalinización de agua
de mar
Concentración de
soluciones acuosas
Deshidratación de
solventes orgánicos
1956
Modelo de poro
Meares
1964
Irreversibilidad Termodinámica
Kedem, Katchalsky
1965
Modelo de difusión – solución
Londale
Fuente: Mulder [31]
III. Tecnología de membranas
En 1970, Cadotte mejoró las membranas integrales al
depositar una película delgada de polímero sobre un soporte
poroso por la técnica de solución-evaporación, mejorando la
permeo-selectividad de las membranas [33].
No es fácil dar una definición completa y precisa
de una membrana que cubra todos sus aspectos [11]. Sin
embargo, una de las definiciones más completas y
precisas fue propuesta por Lonsdale [35] “una membrana
es un sistema de espesor muy pequeño comparado con
su superficie que, cuando se interpone entre dos fases
fluidas macroscópicas, ejerce un control selectivo de las
transferencias de materia o de energía entre ellas”.
En 1990, se mejoró la membrana de microfiltración,
que permitió la remoción de esporas en leches y lactosuero,
se logró controlar la deposición de partículas mediante
discos rotatorios, vibración, vórtices de Dean`s, logrando
extender la vida útil de la leche. Finalmente, se desarrollaron
membranas de intercambio iónico que permitieron fraccionar
hidrolizados a través de membranas de ultrafiltración/
nanofiltración. En la actualidad, los investigadores fabrican
Los procesos de separación por membrana se clasifican
de acuerdo al tamaño de las partículas o moléculas que son
capaces de retener (ver Fig. 2), en el caso de los líquidos se
tiene microfiltración, ultrafiltración, nanofiltración, osmosis
inversa y pervaporación, electrodiálisis [36], en el caso de
los gases existen diferentes tipos de separación a través de
membranas de microporos de diferentes tamaños de poro y
películas poliméricas [37].
Fuente:Barbari [30], Mulder [31]
Fig 1. Evolución de las membranas Modificado deGonzales Rivas [32]
Universidad Católica de Pereira
92
Fig. 2. Representación esquemática del tamaño de poro nominal de los procesos de separación de membrana Modificado de Baker [37], Cui, et al. [38]
Tabla III
Desarrollo histórico de la membrana de microfiltración
A. Microfiltración (MF)
Separa partículas con un tamaño comprendido entre 0,05
y 10 µm, a presiones comprendidas entre los 0,5 y 3 bar.
Usualmente se usa para retener sólidos en suspensión: por
lo tanto, se emplea como etapa de limpieza, de concentración
o como pretratamiento para la nanofiltración o a la ósmosis
inversa [36].
El origen de este método se remonta al año de 1920
cuyo material de construcción fue la nitrocelulosa, y a
partir de entonces muchas compañías de la época iniciaron
la producción en masa de éstas. No obstante la primera
aplicación más relevante se dio en Alemania durante
la segunda guerra mundial, como un método rápido
para monitorear el agua de consumo y hacerla libre de
microorganismos. Posteriormente muchas compañías y
entidades del gobierno siguieron su interés por desarrollar
y aplicar este método dentro de las cuales se encuentra la
Armada de USA, donde buscaron mejorar prototipos de
membranas explorando numerosos materiales celulósicos
como PolivinilFluorideno, Poliamidas, Poliolefinas y Poli
Tetra Fluorideno, especialmente con la compañía Millipore
[39-41]. En la Tabla III se presentan algunos de los avances
más destacados de la MF a través de la historia.
Fuente: Baker [37]
B. Ultrafiltración (UF)
Es una membrana de poros muy finos cuyo rango está entre
10-1000 Å y su principal función es separar macromoléculas
y coloides de una corriente liquida. La primera membrana
de UF fue desarrollada por Bechhold (nitrocelulosa) quien
Entre Ciencia e Ingeniería
Año
Desarrollo
1918
Zsigmondy y Bachmann patentarón las membranas de colodión
1926
Nacimiento de la compañía Membran Filter GmbH
1944
Aplicación del Test de Pantalla de agua (ScreenWater) para
reducir la contaminación bacterial del agua en Alemania
1947
Goetz desarrolló membranas de microfiltración de acetatonitrato de celulosa en la compañía CalTech
1950
Fundación de la Corporación Millipore
1963
Se usó la MF para esterilizar por primera vez la cerveza en frio
1971
Descripción de la filtración de flujo cruzado
1972
Introducción de los filtros de membranas de cartucho plisado
para MF
1985
Membralox produce módulos cerámicos y tubulares de MF
1990
Instalación de las primeras plantas de tratamiento de agua
municipal usando MF
fue el primero en medir sus puntos de burbuja y utilizo el
término “ultrafiltro” [37, 39]. J.D. Ferry [27] realizó una
recopilación muy interesante acerca de la UF, describiendo
su empleo para la concentración de enzimas, análisis de
bacteriófagos y virus y preparación de ultrafiltrados libres
de células y proteínas a partir de soluciones biológicas, sin
embargo, era un proceso restringido a escala de laboratorio
debido a las dificultades que su escalamiento implicaban. Sin
embargo, Sidney y Srinivasa [42] desarrollaron la tecnología
y crearon un sistema de membranas a escala industrial. En la
Tabla IV se presentan algunos de los avances más destacados
de la UF a través de la historia.
93
Tabla IV
Desarrollo histórico de la ultra filtración
Año
Desarrollo
en soluciones alcohólicas concentradas y la remoción de
pequeñas cantidades de componentes orgánicos volátiles
(VOC) de aguas contaminadas. [37, 39, 48]. En la Tabla VI
se presentan algunos de los avances más destacados de la PV
a través de la historia.
1845
Investigación sobre la anisotropía de las membranas naturales
1907
Bechhold prepara membranas de colodión para medir puntos de
burbuja y usa el término “ultrafiltro”
1926
Membrane Filter GmbH comercializa membranas de UF
1966
Amicon desarrolla membranas de UF en material de Polisulfona,
PVDF a escala de laboratorio
Año
Desarrollo
1967
Amicon desarrolla la primera membrana de fibra hueca de UF
1959
1969
Abcor instala una planta comercial de membranas tubulares de
UF
Demostración de la capacidad de desalinización de las películas
de acetato de celulosa por Breton y Reid
1962
1970
primeras aplicaciones industriales de ultrafiltración en la pintura
electroforética
Desarrollo de las membranas asimétricas de Acetato de Celulosa
por Loeb y Sourirajan
1963
Primer módulo en espiral General Atomics
1973
Romicon desarrolla membranas capilares de fibras huecas en su
planta
1963
Loeb-Sourirajan desarrollan las membranas anisotropicas de OI
1967
Primer éxito comercial del módulo de fibra hueca por Du Pont
1980
Abcor comercializa módulos de UF en espiral
1972
Desarrollo del material de membrana compuesto interfacial
1988
Primera membrana cerámica de UF a nivel comercial
1975
Primer planta comercial para membranas compuestas
1978
Primer película aromática (FT-30) por Cadotte
1998
Primer planta para separar solventes refinería Beaumont Texas
C. Nanofiltración (NF)
Tabla V.
Desarrollo histórico de la osmosis inversa
Proceso de separación que usa membranas con un
diámetro de poro inferior a 0,001µm (1nm). Retiene lactosa
y otros componentes de gran tamaño, permitiendo permear
solo iones minerales monovalentes y agua [43].
El origen de la NF se remonta a 1970, como tecnología
alterna a la OI, caracterizada por ser más permeables y
utilizar presiones bajas. Los más grandes desarrollos de
la NF se dieron entre 1900 y 2000, con la mejora de las
características de las membranas y el incremento de sus
aplicaciones [44, 45].
D. Ósmosis Inversa (OI)
Se define como la concentración de soluciones por
eliminación de agua; el tamaño del poro se encuentra entre
5 – 15 A permitiendo obtener retenidos con un contenido
máximo de sólidos del 30% [46]. El método consiste en el
uso de membranas que son solubles en agua e impermeables
para la sal, por ello se usan para desalinizar agua [39, 41,
47]. La OI tiene un costo energético elevado debido a las
altas presiones usadas, no obstante sus resultados son
óptimos. En la Tabla V se presentan algunos de los avances
más destacados de la OI a través de la historia.
E. Pervaporacion (PV)
Es un proceso para separar mezclas gaseosas en líquidos,
ya que una mezcla liquida entra en contacto con un lado de
la membrana y el permeado se remueve como un vapor en
el otro lado, el transporte a través de la membrana se hace
por diferencia de presión de vapor. El termino Pervaporación
fue dado por Kober en 1917, posteriormente el proceso fue
desarrollado por las industrias de petróleos principalmente,
siendo sus aplicaciones más relevantes la remoción de agua
Tabla VI
Desarrollo histórico de la pervaporación
Año
Desarrollo
1950-1960
Binning y Lee de la industria Norteamérica de
aceites publicaron el primer estudio sistemático.
1970-1980
Neel y Aptel en Toulouse realizaron estudios de
Pervaporación en laboratorio
1982
GFT construye la primera planta comercial de
deshidratación de etanol
1996
Primera planta comercial de Pervaporación para
remover Componentes orgánicos volátiles
F.Electrodiálisis (ED)
Es un proceso de membrana en el cual la separación de
iones cargados eléctricamente resulta de la aplicación de un
campo eléctrico [43]. Los iones son transportados, de una
solución a otra, a través de la membrana de intercambio
iónico, bajo la influencia de un potencial eléctrico. Las
cargas eléctricas de los iones permiten su conducción a
través de las soluciones y la membrana cuando se aplica un
voltaje a través de estos medios. El énfasis del diseño de
una ED se dirige hacia el mantenimiento de una distribución
uniforme del flujo de la solución y la minimización de la
resistencia eléctrica y la fuga de corriente [49]. En la Tabla
VII se presentan algunos de los avances más destacados de
la ED a través de la historia.
Universidad Católica de Pereira
94
Tabla VII
Desarrollo histórico de la electrodiálisis
Año
Desarrollo
1900
Ostwald, Donnan entre otros estudiaron la primer membrana de
intercambio iónico
1939
Manegold y Kalauch (1939) y Meyer y Strauss (1940)
describieron la electrodiálisis
1940
Kressman, Murphy (1940) y Juda y McRae (1950) produjeron
la primer membrana de intercambio iónico
1950
IONICS instala la primer planta exitosa de electrodiálisis
1970
IONICS introduce la polaridad inversa al proceso
1977
Liu y Allieddesarrollana la primer membrana bipolar
1980
DiamondShamrock/Du Pont introducen las perfluoromembranas
para las plantas de cloro –álcali
G. Separación de Gas (SG)
Aunque la industrialización de este método data de hace
aproximadamente 20 años, la tecnología ha sido estudiada
desde hace muchos años atrás iniciando con los trabajos
de Thomas Graham quien midió la tasa de permeación de
gases a través del diafragma, cuyo trabajo se conoce como
el origen de la síntesis de gases [37, 39, 50]. La eficiencia
de la SG depende esencialmente de dos parámetros: la
pureza y la fracción del gas producto. Éstos parámetros, a
su vez dependen de las propiedades intrínsecas, tales como
la permeabilidad y la selectividad de la membrana, y por
factores operativos tales como presiones totales y parciales
de la alimentación y permeado, el caudal de alimentación y
la caída de presión a ambos lados de la membrana [51]. En la
Tabla 8 se presentan algunos de los avances más destacados
de la SG a través de la historia
Tabla VIII
Desarrollo histórico de la separación de gas
Año
Desarrollo
1850
Ley de Difusión de Graham
1950
Primer medición sistemática de la permeabilidad por van
Amerongen
1960-1970
Desarrollo de los módulos de fibra hueca y espiral para
Osmosis Inversa
1980
Avances en los materiales de membranas N2/O2 y H2/CH4
1990
Primer planta comercial de separación de vapor GKSS,
NittoDenko
1994
Instalación de membranas de fibra hueca de CO2/CH4
1996
Primer planta de separación de propileno/N2
IV. Aplicaciones industriales
En la actualidad se conocen diversas aplicaciones tales
como, la concentración de leche para mejorar el rendimiento
quesero, la elaboración de bebidas de lactosuero, la
clarificación y preconcentración de jugos de frutas, la
elaboración de nutracéuticos, la elaboración de alimentos
funcionales, la purificación de aguas, la concentración de
clara de huevo, la concentración y extracción de cenizas
Entre Ciencia e Ingeniería
de gelatina porcina, vacuna o de hueso, la clarificación
de la salmuera de carne para la remoción de bacterias y
re-uso de la salmuera, la concentración de proteínas de
vegetales y plantas tales como soja, canola y avena, y la
desalcoholización de vino y cerveza, entre otras.
La MF tiene diversas aplicaciones, algunas de ellas
son: el tratamiento de aguas residuales y la esterilización
de leche [52]; la separación y purificación de componentes
de coproductos de industria de alimentos, por ejemplo de
los caldos de fermentación de arroz [53]; la remoción e
inactivación de virus [54], clarificación y recuperación de
biomasa, entre otros.
En el caso de los lácteos, la MF es una forma alternativa
para producir proteínas de suero de leche [43, 55]. Las
proteínas séricas solubles, recuperadas en el permeado,
tienen el mismo pH que la leche, a diferencia de suero de
queso tradicional, que es relativamente ácido. Por lo tanto,
el valor tecnológico y económico del obtenido por MF es
mayor que el tradicional, ya que la solución de proteínas de
lactosuero no contienen péptidos de caseína, enzimas, grasas
y proteínas de suero desnaturalizadas [56].
La UF se ha empleado para el fraccionamiento de leche,
suero y proteínas [57-59], la recuperación de biomoléculas
a partir de salmueras [60], el tratamiento de agua para
consumo humano [61]; la concentración de proteínas y
anticuerpos solubles [62]. Es un proceso atractivo para la
reducción de hasta un 10% de la lactosa en la leche [63]. Las
grasas y las proteínas quedan en el retenido, mientras que la
lactosa, algunos minerales y sales pueden pasar fácilmente a
través de la membrana
La NF se ha usado en; el pretratamiento en la desalinación
del agua de mar [64], la retención de iones en solución
acuosa [65], la separación y concentración de componentes
bioactivos para su posterior uso en la fortificación de
alimentos [66], el desmineralizado, remoción de color, y
desalinización, entre otros.
La OI es especialmente adecuada para procesos de
deshidratación, concentración/separación de sustancias, o
tratamiento de residuos líquidos [67], ejemplo de esto son:
la separación y purificación de componentes de soluciones
salinas [68]; el tratamiento de efluentes residuales de los
procesos de irrigación agrícola [69, 70], la remoción de
patógenos del agua para consumo humano [70], entre otros.
La PV tiene diversas aplicaciones, tales como:
la producción de bioetanol [71], la concentración de
componentes aromáticos del café [72], la remoción de
fuertes componentes volátiles del agua[48]. Un gran número
de compuestos aromáticos, que producen diferentes atributos
sensoriales, se han identificado en derivados lácteos. Entre
ellos, hay más de 30 compuestos responsables del sabor
típico de algunos productos lácteos que se han extraído por
pervaporación [73].
95
La capacidad de separar los electrolitos ofrece diversas
aplicaciones a la ED en la industria alimentaria. La ED se ha
utilizado en procesos como la remoción y recuperación de
volátiles de ácidos grasos de mezcla de fermentaciones ácidas
[74], la limpieza de aguas residuales [75], la desalinización
[76]. Su mayor uso ha sido en la desmineralización de
suero de leche [77-80]. El lactosuero contiene cantidades
útiles de proteínas, lactosa y ácido láctico. Sin embargo, el
alto contenido de minerales hace que sea inaceptable para
el consumo humano o como alimento para animales. El
tratamiento del suero por ED permite la remoción de los
minerales y la posterior producción de suero comestible en
polvo. Otro interesante uso ha sido la desalación de la leche
de vaca, para utilizarla en fórmulas infantiles [81, 82].
La SG se ha empleado con éxito para separar cadmio
en el tratamiento de aguas residuales [83], separar alcanos
lineales, solventes polares, isómeros estructurales, mezcla
de gases [84], fraccionar aceites y gases. La SG también
permite la producción de hidrógeno, la purificación de aire
y la concentración del contenido de oxígeno en el aire [51].
Un interesante ejemplo de aplicación de las TM son
las posibilidades de aprovechamiento de los componentes
del lactosuero. Entre los derivados del suero se pueden
citar: lactosuero en polvo, proteínas aislados de suero WPI
(Whey Protein Isolates), proteínas concentradas de suero
WPC (Whey Protein Concentrates), suero deslactosado,
suero reducido en lactosa RLW (Reduced Lactose Whey),
suero desmineralizado y deslactosado, lactalbumina, suero
permeado WP (Whey Permeate), lactosa en polvo, entre
otros [85-87]. Un esquema de los procesos y operaciones
unitarias empleadas para la obtención de estos ingredientes
se muestran en la Figura 3 [88].
Fig 3. Procesamiento para la obtención de derivados de lactosuero en diferentes formas comerciales. Fuente: Posada, et al. [88].
Universidad Católica de Pereira
96
V. Conclusiones
La aplicabilidad de la tecnología de membranas ha
permitido su uso en muchos campos de las ciencias y la
industria a saber: en la industria petrolera, la industria de
pinturas, la industria láctea y en la purificación de agua,
principalmente. Siendo relevante su aporte a la conservación
de los recursos no renovables puesto que no requiere de altas
temperaturas para su uso. Este tipo de tecnologías plantea
retos para la sociedad científica actual teniendo en cuenta la
necesidad de generar productos y servicios.
Referencias
[1] K. S. Sutherland and G. Chase, Filters and Filtration Handbook.
Oxford, UK: Elsevier Science, 2008.
[2] S. K. Sharma, S. J. Mulvaney, and S. S. H. Rizvi, Food process
engineering : theory and laboratory experiments. New York, USA:
Wiley-Interscience, 2000.
[3] C. J. Geankoplis, Transport processes and separation process
principles, 4th ed. Upper Saddle River, NJ, USA: Prentice Hall
Professional Technical Reference, 2003.
[4] H. Strathmann, “A Random Walk through Membrane Science—From
Water Desalination and Artificial Kidneys to Fuel Cell Separators
and Membrane Reactors,” in Advances in membrane science and
technology, T. Xu, Ed., ed New York, USA: Nova Biomedical Books,
2009, pp. 1-20.
[5] A. M. Sastre, A. K. Pabby, and S. S. H. Rizvi, “Membrane Applications
in Chemical and Pharmaceutical Industries and in Conservation
of Natural Resources: Introduction,” in Handbook of Membrane
Separations: Chemical, Pharmaceutical, Food, and Biotechnological
Applications, A. K. Pabby, S. S. H. Rizvi, and A. M. Sastre, Eds., ed
Boca Raton, FL, USA: CRC Press, Taylor & Francis Group, 2009, pp.
3-6.
[6] H. Muñoz Guerrero, “Gestión medioambiental de salmueras de
desalado de bacalao. Tratamiento mediante tecnología de membranas,”
Tesis doctoral, Universitat Politècnica de València, València, España,
2010.
[7] T. Uemura and M. Henmi, “Thin-Film Composite Membranes
for Reverse Osmosis,” in Advanced membrane technology and
applications, N. N. Li, A. G. Fane, W. S. W. Ho, and T. Matsuura,
Eds., ed Oxford, UK: Wiley-Blackwell, 2008, pp. 3-20.
[8] N. Hilal, A. F. Ismail, and C. Wright, Membrane fabrication. Boca
Raton, FL, USA: CRC Press, Taylor & Francis Group, 2015.
[9] S. Periera-Nunes and K.-V. Peinemann, Membrane technology : in the
chemical industry. Weinheim; Cambridge, UK: Wiley-VCH, 2001.
[10] Lucrecio, De rerum natura. De la naturaleza. España: El Acantilado,
2012.
[11] J. Aguilar Peris, “Fenómenos de transporte a través de membranas,”
Revista portuguesa de química, vol. 25, pp. 11-26, 1983.
[12]J. J. Gomilla Villalonga, “Tecnología de electromembrana cerámica
para la desinfección de aguas,” Tesis doctoral, Universitat Politècnica
de Catalunya, Barcelona, España, 2015.
[13] J. A. Nollet, “Recherches sur les causes du Bouillonnement des
Liquides,” Histoire de l’Acadmie Royale des Sciences, pp. 57-104,
1752.
[14] A. Sotto Díaz, “Aplicación de la tecnología de membranas de
nanofiltración y ósmosis inversa para el tratamiento de disoluciones
acuosas de compuestos fenólicos y ácidos carboxílicos,” Doctorado,
Departamento de Tecnología Quimica y Ambiental, Universidad Rey
Juan Carlos, Madrid, España, 2008.
[15] R. J. H. Dutrochet, “Nouvelles Observations sur l’Endosmose et
l’Exosmose, et sur la cause de ce double phénomène,” Annales de
Chimie et de Physique, vol. 35, pp. 393–400, 3/31/ 1827.
[16] K. W. Böddeker, “Commentary: Tracing membrane science,” Journal
of Membrane Science, vol. 100, pp. 65-68, 3/31/ 1995.
[17] H. S. Muralidhara, “Challenges of Membrane Technology in the XXI
Century,” in Membrane Technology: A Practical Guide to Membrane
Technology and Applications in Food and Bioprocessing, Z. F. Cui
Entre Ciencia e Ingeniería
and H. S. Muralidhara, Eds., ed Oxford, UK: Elsevier Science, 2010,
pp. 19-32.
[18] A. Fick, “Ueber Diffusion,” Annalen der Physik, vol. 170, pp. 59-86,
1855.
[19] T. Graham, “Liquid Diffusion Applied to Analysis,” Philosophical
Transactions of the Royal Society of London, vol. 151, pp. 183-224,
1861.
[20] M. Traube, “Experimente zur Theorie der Zellenbildung und
Endosmose,” Archiv für Anatomie und Physiologie und
wissenschaftliche Medizin, pp. 87-165, 1867.
[21] M. Traube, “Über homogene Membranen und deren Einfluss auf die
Endosmose,” Centralblatt für die medicinischen Wissenschaften, vol.
4, pp. 97-100, 1866.
[22] M. Traube, “Experimente zur Theorie der Zellenbildung,” Centralblatt
für die medicinischen Wissenschaften, vol. 2, pp. 609-615, 1864.
[23]J. v. t. Hoff, “The Function of Osmotic Pressure in the Analogy
between Solutions and Gases,” Proceedings of the Physical Society
of London, vol. 9, pp. 307-334, 1887.
[24] J. C. Maxwell, “A Treatise on the Kinetic Theory of Gases,” Nature,
vol. 16, pp. 242-246, 1877.
[25] H. Bechhold, Kolloidstudien mit der Filtrationsmethode. Leipzig:
Engelmann, 1907.
[26] R. Zsigmondy and W. Bachmann, “Über neue Filter,” Zeitschrift für
anorganische und allgemeine Chemie, vol. 103, pp. 119-128, 1918.
[27] J. D. Ferry, “Ultrafilter Membranes and Ultrafiltration,” Chemical
Reviews, vol. 18, pp. 373-455, 1936/06/01 1936.
[28] W. J. Elford, “Principles governing the preparation of membranes
having graded porosities. The properties of “gradocol” membranes as
ultrafilters,” Transactions of the Faraday Society, vol. 33, pp. 10941104, 1937.
[29] Y. Cohen and J. Glater, “A tribute to Sidney Loeb —The pioneer
of reverse osmosis desalination research,” Desalination and Water
Treatment, vol. 15, pp. 222-227, 2012.
[30] T. Barbari, “Basic principles of membrane technology : Marcel Mulder
(Ed.), Kluwer Academic Publishers, Dordrecht, The Netherlands,
1991; hardbound, Dfl. 200, ISBN 0-7923-0978-2; paperback, Dfl. 70,
ISBN 0-7923-0979-0; 400 pp,” Journal of Membrane Science, vol.
72, pp. 304-305, 9/16/ 1992.
[31]M. Mulder, Basic Principles of Membrane Technology, 2nd ed.
London, UK, 1996.
[32] M. Gonzales Rivas, “Separación y purificación del ácido lactobiónico,”
Master en Biotecnología Alimentaria Master en Biotecnología
Alimentaria, Biotenología Alimentaria, Universidad de Oviedo,
Oviedo, España, 2013.
[33]J. E. Cadotte, R. J. Petersen, R. E. Larson, and E. E. Erickson, “A
new thin-film composite seawater reverse osmosis membrane,”
Desalination, vol. 32, pp. 25-31, 1// 1980.
[34] H. Ozaki and H. Li, “Rejection of organic compounds by ultra-low
pressure reverse osmosis membrane,” Water Research, vol. 36, pp.
123-130, 1// 2002.
[35] H. K. Lonsdale, “What is membrane? Part II,” Journal of Membrane
Science, vol. 43, pp. 1-3, // 1989.
[36] R. Ibañez Lorente, “Estudio de la Ultrafiltación de Proteínas Modelo
con Membranas Cerámicas,” Tesis de Doctorado, Universidad de
Granada, Granada, España, 2007.
[37] R. W. Baker, Membrane Technology and Applications: John Wiley &
Sons, Ltd, 2004.
[38] Z. F. Cui, Y. Jiang, and R. W. Field, “Fundamentals of Pressure-Driven
Membrane Separation Processes,” in Membrane Technology: A
Practical Guide to Membrane Technology and Applications in Food
and Bioprocessing, Z. F. Cui and H. S. Muralidhara, Eds., ed Oxford,
UK: Elsevier Science, 2010, pp. 1-18.
[39] R. Singh, “Chapter 1 - Introduction to membrane technology,” in
Hybrid Membrane Systems for Water Purification, R. Singh, Ed., ed
Amsterdam: Elsevier Science, 2005, pp. 1-56.
[40] L. Fernández García, S. Álvarez Blanco, and F. A. Riera Rodríguez,
“Microfiltration applied to dairy streams: removal of bacteria,”
Journal of the Science of Food and Agriculture, vol. 93, pp. 187-196,
2013.
[41] A. Al Ashhab, O. Gillor, and M. Herzberg, “Biofouling of reverseosmosis membranes under different shear rates during tertiary
wastewater desalination: Microbial community composition,” Water
Research, vol. 67, pp. 86-95, 12/15/ 2014.
97
[42] L. Sidney and S. Srinivasa, “Sea Water Demineralization by Means of
an Osmotic Membrane,” in Saline Water Conversion?II. vol. 38, ed:
AMERICAN CHEMICAL SOCIETY, 1963, pp. 117-132.
[43] A. F. de Carvalho and J. L. Maubois, Engineering Aspects of Milk and
Dairy Products. Boca Raton, 2010.
[44] B. Van der Bruggen and J. Geens, “Nanofiltration,” in Advanced
Membrane Technology and Applications, ed: John Wiley & Sons,
Inc., 2008, pp. 271-295.
[45] S. Zhu, S. Zhao, Z. Wang, X. Tian, M. Shi, J. Wang, and S. Wang,
“Improved performance of polyamide thin-film composite
nanofiltration membrane by using polyetersulfone/polyaniline
membrane as the substrate,” Journal of Membrane Science, vol. 493,
pp. 263-274, 11/1/ 2015.
[46] A. Chacón-Villalobos, “- Tecnologías de membranas en la
agroindustria lácteaJF - Agronomía Mesoamericana,” vol. - 243-263,
2006.
[47] Y.-X. Sun, Y. Gao, H.-Y. Hu, F. Tang, and Z. Yang, “Characterization
and biotoxicity assessment of dissolved organic matter in RO
concentrate from a municipal wastewater reclamation reverse osmosis
system,” Chemosphere, vol. 117, pp. 545-551, 12// 2014.
[48] J. Kujawa, S. Cerneaux, and W. Kujawski, “Removal of hazardous
volatile organic compounds from water by vacuum pervaporation
with hydrophobic ceramic membranes,” Journal of Membrane
Science, vol. 474, pp. 11-19, 1/15/ 2015.
[49] T. A. Davis, “Electrodialysis,” in Handbook of industrial membrane
technology, M. C. Porter, Ed., ed Park Ridge, N.J, USA: Noyes
Publications, 1990, pp. 482-510.
[50] F. Ahmad, K. K. Lau, S. S. M. Lock, S. Rafiq, A. U. Khan, and M.
Lee, “Hollow fiber membrane model for gas separation: Process
simulation, experimental validation and module characteristics
study,” Journal of Industrial and Engineering Chemistry.
[51] A. K. Fritzsche and J. E. Kurz, “The Separation of Gases by
Membranes,” in Handbook of industrial membrane technology, M. C.
Porter, Ed., ed Park Ridge, N.J, USA: Noyes Publications, 1990, pp.
559-593.
[52] M. C. Almandoz, C. L. Pagliero, N. A. Ochoa, and J. Marchese,
“Composite ceramic membranes from natural aluminosilicates for
microfiltration applications,” Ceramics International, vol. 41, pp.
5621-5633, 5// 2015.
[53] X. Li, Y. Wang, J. Pan, Z. Yang, Y. He, A. N. Mondal, and T. Xu,
“The preparation and application of a low-cost multi-channel tubular
inorganic–organic composite microfiltration membrane,” Separation
and Purification Technology, vol. 151, pp. 131-138, 9/4/ 2015.
[54] B. Guo, E. V. Pasco, I. Xagoraraki, and V. V. Tarabara, “Virus removal
and inactivation in a hybrid microfiltration–UV process with a
photocatalytic membrane,” Separation and Purification Technology,
vol. 149, pp. 245-254, 7/27/ 2015.
[55] L. V. Saboyainsta and J.-L. Maubois, “Current developments of
microfiltration technology in the dairy industry,” Lait, vol. 80, pp.
541-553, 2000.
[56] K. Hu, J. M. Dickson, and S. E. Kentish, “Microfiltration for casein
and serum protein separation,” in Membrane Processing for Dairy
Ingredient Separation, K. Hu and J. M. Dickson, Eds., ed Oxford,
UK: John Wiley & Sons, Ltd, 2015, pp. 1-34.
[57] E. D. Bastian, S. K. Collinge, and C. A. Ernstrom, “Ultrafiltration:
Partitioning of Milk Constituents into Permeate and Retentate1,”
Journal of Dairy Science, vol. 74, pp. 2423-2434.
[58] F. V. Kosikowski and R. Jimenez-Flores, “Removal of Penicillin G
from Contaminated Milk by Ultrafiltration,” Journal of Dairy Science,
vol. 68, pp. 3224-3233.
[59] N. Rajagopalan and M. Cheryan, “Total Protein Isolate from Milk by
Ultrafiltration: Factors Affecting Product Composition,” Journal of
Dairy Science, vol. 74, pp. 2435-2439.
[60] N. Gringer, S. V. Hosseini, T. Svendsen, I. Undeland, M. L. Christensen,
and C. P. Baron, “Recovery of biomolecules from marinated herring
(Clupea harengus) brine using ultrafiltration through ceramic
membranes,” LWT - Food Science and Technology, vol. 63, pp. 423429, 9// 2015.
[61] W. Yu and N. J. D. Graham, “Performance of an integrated granular
media – Ultrafiltration membrane process for drinking water
treatment,” Journal of Membrane Science, vol. 492, pp. 164-172,
10/15/ 2015.
[62] R. Ghosh and R. Sadavarte, “A technique for drying and storing
a protein as a soluble composite thin film on the surface of an
ultrafiltration membrane,” Journal of Membrane Science, vol. 490,
pp. 256-265, 9/15/ 2015.
[63] Shakeel-Ur-Rehman, “Reduced Lactose and Lactose-Free Dairy
Products,” in Advanced dairy chemistry. Volume 3: Lactose,
Water, Salts and Minor Constituents. vol. 3, P. F. Fox and P. L. H.
McSweeney, Eds., 3rd. ed New York ; London: Kluwer Academic/
Plenum, 2009, p. 794.
[64] C. Kaya, G. Sert, N. Kabay, M. Arda, M. Yüksel, and Ö. Egemen,
“Pre-treatment with nanofiltration (NF) in seawater desalination—
Preliminary integrated membrane tests in Urla, Turkey,” Desalination,
vol. 369, pp. 10-17, 8/3/ 2015.
[65] C.-V. Gherasim, K. Hancková, J. Palarčík, and P. Mikulášek,
“Investigation of cobalt(II) retention from aqueous solutions by a
polyamide nanofiltration membrane,” Journal of Membrane Science,
vol. 490, pp. 46-56, 9/15/ 2015.
[66] Y. Li, B. Qi, J. Luo, R. Khan, and Y. Wan, “Separation and concentration
of hydroxycinnamic acids in alkaline hydrolyzate from rice straw by
nanofiltration,” Separation and Purification Technology, vol. 149, pp.
315-321, 7/27/ 2015.
[67] R. Garud, S. Kore, V. Kore, and G. Kulkarni, “A short review on
process and applications of reverse osmosis,” Universal journal of
Environmental research and technology, vol. 1, pp. 233-238, 2011.
[68] S. M. Ibrahim, H. Nagasawa, M. Kanezashi, and T. Tsuru, “Robust
organosilica membranes for high temperature reverse osmosis (RO)
application: Membrane preparation, separation characteristics of
solutes and membrane regeneration,” Journal of Membrane Science,
vol. 493, pp. 515-523, 11/1/ 2015.
[69] S. Bunani, E. Yörükoğlu, Ü. Yüksel, N. Kabay, M. Yüksel, and G.
Sert, “Application of reverse osmosis for reuse of secondary treated
urban wastewater in agricultural irrigation,” Desalination, vol. 364,
pp. 68-74, 5/15/ 2015.
[70] N. Nguyen, C. Fargues, W. Guiga, and M. L. Lameloise, “Assessing
nanofiltration and reverse osmosis for the detoxification of
lignocellulosic hydrolysates,” Journal of Membrane Science, vol.
487, pp. 40-50, 8/1/ 2015.
[71] M. A. Sosa, D. A. Figueroa Paredes, J. C. Basílico, B. Van der Bruggen,
and J. Espinosa, “Screening of pervaporation membranes with the
aid of conceptual models: An application to bioethanol production,”
Separation and Purification Technology, vol. 146, pp. 326-341, 5/26/
2015.
[72] T. A. Weschenfelder, P. Lantin, M. C. Viegas, F. de Castilhos, and A.
d. P. Scheer, “Concentration of aroma compounds from an industrial
solution of soluble coffee by pervaporation process,” Journal of Food
Engineering, vol. 159, pp. 57-65, 8// 2015.
[73] B. Zhang, P. Sampranpiboon, and X. Feng, “Pervaporative extraction
of dairy aroma compounds,” in Membrane Processing for Dairy
Ingredient Separation, K. Hu and J. M. Dickson, Eds., ed Oxford,
UK: John Wiley & Sons, Ltd, 2015, pp. 176-229.
[74] R. J. Jones, J. Massanet-Nicolau, A. Guwy, G. C. Premier, R. M.
Dinsdale, and M. Reilly, “Removal and recovery of inhibitory
volatile fatty acids from mixed acid fermentations by conventional
electrodialysis,” Bioresource Technology, vol. 189, pp. 279-284, 8//
2015.
[75] S. Caprarescu, M. C. Corobea, V. Purcar, C. I. Spataru, R. Ianchis,
G. Vasilievici, and Z. Vuluga, “San copolymer membranes with
ion exchangers for Cu(II) removal from synthetic wastewater by
electrodialysis,” Journal of Environmental Sciences, vol. 35, pp. 2737, 9/1/ 2015.
[76] C. Xue, Q. Chen, Y.-Y. Liu, Y.-L. Yang, D. Xu, L. Xue, and W.-M.
Zhang, “Acid blue 9 desalting using electrodialysis,” Journal of
Membrane Science, vol. 493, pp. 28-36, 11/1/ 2015.
[77] H. Šímová, V. Kysela, and A. Černín, “Demineralization of natural
sweet whey by electrodialysis at pilot-plant scale,” Desalination and
Water Treatment, vol. 14, pp. 170-173, 2012.
[78] L. Diblíková, L. Čurda, and K. Homolová, “Electrodialysis in whey
desalting process,” Desalination and Water Treatment, vol. 14, pp.
208-213, 2012.
[79] G. Q. Chen, F. I. I. Eschbach, M. Weeks, S. L. Gras, and S. E. Kentish,
“Removal of lactic acid from acid whey using electrodialysis,”
Separation and Purification Technology, vol. 158, pp. 230-237, 2016.
Universidad Católica de Pereira
98
[80] J. Ečer, J. Kinčl, and L. Čurda, “Using foil membranes for
demineralization of whey by electrodialysis,” Desalination and Water
Treatment, pp. 1-5, 2014.
[81] H. R. Mueller and M.-C. Secretin, “Infant milk formula and process
for its manufacture,” USA Patent Patent, 1980.
[82] L. Bazinet, “Electrodialysis applications on dairy ingredients
separation,” in Membrane Processing for Dairy Ingredient Separation,
K. Hu and J. M. Dickson, Eds., ed Oxford, UK: John Wiley & Sons,
Ltd, 2015, pp. 241-266.
[83] T. Dong, L. Yang, M. Zhu, Z. Liu, X. Sun, J. Yu, and H. Liu, “Removal
of cadmium(II) from wastewater with gas-assisted magnetic
separation,” Chemical Engineering Journal, vol. 280, pp. 426-432,
11/15/ 2015.
[84] K. Yusuf, A. Y. Badjah-Hadj-Ahmed, A. Aqel, and Z. A. Alothman,
“Fabrication of zeolitic imidazolate framework-8-methacrylate
monolith composite capillary columns for fast gas chromatographic
separation of small molecules,” Journal of Chromatography A, vol.
1406, pp. 299-306, 8/7/ 2015.
[85] K. R. Marshall and W. J. Harper, “Whey protein concentrates,,” IDF
Bulletin, vol. 233, pp. 21-32, 1988.
[86] U. Kulozik, “Structuring dairy products by means of processing and
matrix design,” in Food Materials Science - Principles and Practice, J.
M. Aguilera and P. J. Lillford, Eds., ed New York: Springer, 2008, pp.
439-473.
[87] S. Young. (2007, Whey Products in Ice Cream and Frozen Dairy
Desserts. Applications Monograph, 1-12. Available: http://www.usdec.
org/files/PDFs/2008Monographs/WheyIceCreamandDairyDesserts_
English.pdf
[88] K. Posada, D. M. Terán, and J. S. Ramírez-Navas, “Empleo de
lactosuero y sus componentes en la elaboración de postres y productos
de confitería,” La Alimentación Latinoamericana, vol. 292, pp. 66-75,
2011.
Carlos Andrés Solís Carvajal, es Ingeniero de Alimentos de la
Universidad del Valle (Colombia).
Carlos Antonio Vélez Pasos, es Ingeniería Agrícola de la Universidad
Nacional de Colombia - Sede Medellín. Master en Ingeniería Agrícola
de la Universidade Estadual De Campinas (Brasil). Doctor en Ingeniería
de Alimentos de la Universidade Estadual De Campinas (Brasil).
Es investigador del Grupo de Investigación Ingeniería de Procesos
Agroalimentarios y Biotecnológicos (GIPAB). Actualmente es Director
de la Escuela de Ingeniería de Alimentos de la Universidad del Valle
(Colombia).
Juan Sebastián Ramírez Navas es Ingeniero Químico de la
Universidad Central del Ecuador. Doctor en Ingeniería (énfasis en Ingeniería
de Alimentos) de la Universidad del Valle (Colombia). Es investigador
del Grupo de Investigación Ingeniería de Procesos Agroalimentarios y
Biotecnológicos (GIPAB). Actualmente es Profesor Asistente (DOMT) en la
Escuela de Ingeniería de Alimentos de la Universidad del Valle (Colombia)
Entre Ciencia e Ingeniería
99
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 99-107
Cálculo del factor de concentrador de esfuerzos en placas planas
utilizando diferentes elementos de discretización por medio del
método de elementos finitos1
Calculation of stress concentrator factor in flat plates using different
elements of discretization by the finite element method
Cálculo do fator de concentrador de esforços em placas planas
utilizando diferentes elementos de discretização através do método
de elementos finitos
J.S. Clavijo, C.D. Montoya y L.C. Flórez
Recibido Octubre 15 de 2015 – Aceptado Febrero 19 de 2016
Resumen— En este trabajo, haciendo uso del método de
elementos finitos (MEF) en elasticidad bidimensional, se calculan
los cambios en el factor de concentración de esfuerzos generados
cuando se utilizan diferentes elementos de aproximación (CST,
LST, Q4 y Q8) en placas planas, además, es objeto de estudio si el
refinamiento de la malla en las cercanías al concentrador, afecta
el valor del factor de concentrador de esfuerzos. Este análisis se
realizó por medio de un algoritmo desarrollado en Matlab y sus
resultados se comparan con los generados por el método analítico
y las simulaciones de Comsol Multiphysics.
Palabras clave—deformación, elasticidad, esfuerzo, factor
de concentración de esfuerzos, método de elementos finitos.
Abstract—In this work, and by using the finite element
1
Producto derivado del proyecto de investigación “Análisis de
esfuerzos por medio del método de elementos finitos en elementos
mecánicos con diferentes elementos de discretización”. Presentado por
el Grupo de Investigación CONFORMAT UTP, Facultad de Ingeniería
Mecánica de la Universidad Tecnológica de Pereira.
J.S. Clavijo, Ingeniero Mecánico de la Universidad Tecnológica de
Pereira, Pereira (Colombia); email: [email protected]
C.D. Montoya, Ingeniero Mecánico de la Universidad Tecnológica de
Pereira, Pereira (Colombia); email: [email protected]
L.C. Flórez, Docente en la Faculta de Ingeniería Mecánica de la
Universidad Tecnológica de Pereira, Pereira (Colombia); email: [email protected]
edu.co
method (FEM) in two dimensional elasticity, the changes on
the stress concentration factor generated by using different
elements of approximation (CST, LST, Q4 and Q8) on flat
plates are calculated, it is also a factor of study, if the mesh
refinement in nearby to the concentrator affecting the value of
the stress concentration factor. This analysis is performed by an
algorithm developed in Matlab and compared with the results
generated by the analytical method and Comsol Multiphysics
simulations.
Key
words—deformation, elasticity,
concentration factor and finite element method
stress,
stress
Resumo – Neste trabalho, fazendo uso do método de elementos
finitos (MEF) em elasticidade bidimensional, se calculam as mudanças no fator de concentração de esforços gerados quando se
utilizam diferentes elementos de aproximação (CST, LST, Q4 e
Q8) em placas planas, além disso, é objeto de estudo se o refinamento da malha nas proximidades ao concentrador, afeta o valor
do fator de concentrador de esforços. Esta analise se realizou por
meio de um algoritmo de desenvolvimento em Matlab e seus resultados se comparam com os gerados pelo método analítico e as
simulações de Comsol Multiphysics.
Palavras chave: deformação, elasticidade, esforço, fator de concentração de esforços, métodos de elementos finitos.
Universidad Católica de Pereira
100
I. Introducción
E
L empleo del MEF permite efectuar un análisis
preciso, fiable, versátil y flexible aplicable a
diferentes geometrías.
El presente estudio describe el comportamiento de
una placa plana isotrópica sometida a deformación plana,
producida por una carga constante aplicada en su extremo
libre y con el otro empotrado, donde son factores de
estudio tres concentradores (agujero centrado, acanaladura
semicircular y cambio de sección), el refinado de la malla
en las cercanías del concentrador y el tipo de elemento de
discretización se hace utilizando el MEF. Los cálculos del
esfuerzo se realizan por medio de un algoritmo desarrollado
en Matlab implementando la simulación en Comsol
Multigraphycs; con los esfuerzos obtenidos se calcula el
factor de concentración de esfuerzo .
Se pretende comparar los resultados obtenidos a partir de
diferentes tipos de elementos de aproximación (CST, LST, Q4
y Q8) y dos refinamientos distintos del mallado, programados
con un algoritmo desarrollado en Matlab confrontándolos
con las simulaciones de Comsol Multigraphycs y el método
analítico de la mecánica de materiales. Los elementos de
aproximación seleccionados pertenecen a los dos primeros
niveles del triángulo de Pascal (lineal Q4 y cuadrático Q8.
ver Fig. 1) de la familia Serendipita [1] y triangular (lineal
CST y cuadrático LST. Ver Fig. 2), cuyos elementos poseen
la característica que no presentan nodos internos en el
elemento.
El MEF para la mecánica de estructuras en placas
planas bidimensionales es desarrollado bajo el principio de
la energía potencial mínima [2], con las ecuaciones de la
elasticidad basadas en desplazamientos para análisis lineal.
II. Fundamentos teóricos
A. Concentradores
Un concentrador de esfuerzos se define como cualquier
discontinuidad (muescas, chaveteros, agujeros, cambios de
sección, ranuras, etc.) en la sección transversal de una pieza
que pueda provocar un incremento de los esfuerzos en las
cercanías a dicha discontinuidad. Los concentradores de
esfuerzos pueden o no ser significativos, todo depende de las
cargas a las que la pieza sea sometida [3].
1. Factor de concentración de esfuerzos
El factor de concentración de esfuerzo teórico kt se define
como la relación entre el esfuerzo máximo y el esfuerzo
normal promedio que actúa en la sección transversal (Ec. 1)
y puede ser determinado mediante métodos experimentales
(estudios fotoelásticos, cubierta frágil o medidores de
tensión) o técnicas de matemáticas avanzadas utilizadas en
la teoría de la elasticidad [4]. Por lo general el cálculo se
Entre Ciencia e Ingeniería
realiza en la sección de menor área transversal, que es donde
se presenta el esfuerzo máximo [5].
(1)
Para geometrías sencillas el cálculo del factor kt es fácil
debido a que se encuentran caracterizado en tablas y gráficos
como los que se observan en Pilkey [6] y Norton [7]. No
obstante para concentradores con geometrías poco comunes
se hace necesario realizar un análisis más profundo.
B, Método de elementos Finitos
El MEF implica el modelado de la estructura utilizando
pequeños elementos interconectados denominados elementos
finitos. Una función de desplazamiento está asociada
con cada elemento finito y cada elemento interconectado
está vinculado, directa o indirectamente, a cualquier otro
elemento a través de interfaces comunes (o compartidos),
incluyendo nodos y/o líneas de contorno y/o superficies [8].
1, Elasticidad lineal en MEF
Los problemas de elasticidad en dos dimensiones son
frecuentes en ingeniería y es en ellos donde se aplicó por
primera vez el MEF. Esta sección trata del análisis estático
aplicado a sólidos bidimensionales sometidos a tensión
plana, que se define como un estado de esfuerzos en el
que la tensión normal y la tensión cizallante en dirección
perpendicular al plano se suponen nulas. Por lo tanto existe
una deformación unitaria no nula en dicha dirección [2]
como se puede observar en la Ec. 2:
(2)
donde E,J son el módulo de elasticidad y la relación
de Poisson respectivamente, consideradas propiedades
inherentes al material.
La relación entre el esfuerzo y la deformación es dada
por la Ec. 3:
(3)
a. Desplazamiento y esfuerzo
La posición de un punto está determinada por las coordenadas
(x,y), y su deformación presenta dos componentes u(x,y),
v(x,y),en las direcciones x y y respectivamente. En tal
sentido, el campo de deformaciones es por lo tanto el vector
(ver Ec. 4):
(4)
b. Funciones de interpolación
El campo de las deformaciones dentro del elemento se puede aproximar por medio de las Ec. 5 y 6:
101
(5)
(6)
donde Ni son las funciones de interpolación del elemento,
que generalmente son funciones de las coordenadas x, y
.Nótese que se emplean las mismas funciones para interpolar
los desplazamientos u y v , y que ambos desplazamientos
se interpolan por separado, el campo u mediante las Ut y el
campo v mediante las Vi [2].
La matriz de funciones de interpolación [N] posee dos filas y
tantas columnas, como grados de libertad existan entre todos
los nodos de un elemento (Ec. 7):
(7)
de los valores nodales en las aristas del elemento. Sus
características son [2]:
-
-
-
-
Los nodos están situados en el contorno del elemento.
La normalización de la geometría con un cambio de
coordenadas, donde se busca generar un cuadrado
de tamaño 2x2 en el dominio [-1,1] para cada eje
coordenado.
La cantidad de nodos en cada lado del elemento define
el grado del polinomio.
La función de interpolación completa, es el producto
de las funciones en cada dirección.
Un elemento cuadrilátero genérico de 4 nodos y otro de 8
nodos se representa gráficamente en la Fig. 1.
C. Matriz de rigidez
Familiarizarnos con la matriz de rigidez es el paso
esencial para la comprensión del método de rigidez. Para un
elemento [1], la matriz de rigidez puede definirse mediante
la Ec. 8, así:
(8)
donde la matriz [k] relaciona el desplazamiento nodal
{d} y la fuerza nodal {f}.
La expresión obtenida del principio de energía potencial
mínima para la matriz de rigidez de un elemento plano
cualquiera se representa con la Ec. 9:
(9)
En la Ec. 9 la matriz [B] , se obtiene derivando la matriz
de funciones de interpolación [N] respecto a las coordenadas
y , donde es la cantidad de nodos en el elemento, ver Ec. 10.
Fig. 1. Elemento cuadrilátero lineal y cuadrilátero cuadrático.
3. Familia triangular
El empleo de elementos triangulares muestra su
potencialidad al representar geometrías complejas mucho
más fácilmente que sus homólogos cuadriláteros; además,
el costo de cálculo es menor para cada elemento. Debido a
ello, la utilización de estas familias es ampliamente usada en
programas computacionales de elementos finitos [9].
Los elementos triangulares lineales y cuadráticos se
representan en la Fig. 2.
(10)
La matriz de rigidez global [K] (Ec. 11) relaciona las
coordenadas globales (x,y) con el desplazamiento {d} y la
fuerza global {F} ,
(11)
2. Familia Serendípita
Los elementos serendípitos fueron descubiertos de
forma casual por mera observación y es conveniente usarlos
cuando se quiere que las funciones de forma dependan
Fig. 2. Elemento triangular lineal y cuadrático
4. Transformación de coordenadas
Con las transformaciones isoparamétricas se busca
modificar geométricamente el elemento de tal forma que su
análisis matemático sea más sencillo que si se quisiera hacer
en las coordenadas globales; este nuevo sistema coordenado
se conoce como sistema natural o local.
a. Elementos Serendípitos
En la familia Serendípita,
la
transformación
Universidad Católica de Pereira
102
isoparamétrica convierte un cuadrilátero genérico en
coordenadas cartesianas x, y en un cuadrilátero cuadrado
unitario en coordenadas naturales de x y h ; donde, para
cada variable, el cuadrilátero está dentro del dominio [-1,1].
Las funciones de forma o interpolación para elasticidad
bidimensional se encuentran en diversos libros de elementos
finitos, por ejemplo Daryl [1] o Kattan [8]. Para un elemento
serendípito de ocho nodos, la transformación geométrica
está representada en la Fig. 3.
el método de Gauss – Legendre o Cuadratura de Gauss para
polinomios ortogonales [10].
La integral definida de la Ec. 9 se puede expresar por
medio de la Ec. 14:
(14)
Si se aborda la ecuación 14 para una variable, se puede
reescribir la solución en la cuadratura de Gauss como se
muestra en la Ec. 15:
(15)
donde n es la cantidad de puntos de Gauss a emplear.
Siempre habrá 2n incógnita (Wi, xi ) y la solución será exacta
para polinomios de grado (2n - 1), Wi es una función de peso
que permite eliminar las singularidades en la integración;
xi son las raíces del polinomio ortogonal de Legendre.
Fig. 3. Transformación de coordenadas elemento Serendípito de 8 nodos.
b) Coordenadas de área, elementos triangulares
Los elementos triangulares tienen una configuración
especial y para ellos se adopta un sistema de referencia en
términos de áreas. Un punto P (x, y) puede ser representado
en término de las coordenadas locales L1, L2 y L3. Las
coordenadas locales Li representan la variación de cada arista
del triángulo a medida que recorre el área del triángulo (Fig.
4a). Las variables locales en términos del área son dadas por
las Ec. 12 y 13.
(12)
Además se cumple que:
(13)
En la Tabla 1 se muestran los coeficientes de peso y las
abscisas para la cuadratura de Gauss para los primeros 4
puntos de Gauss.
Tabla I
Abscisas y coeficientes de peso de la cuadratura de gauss
Aplicando la cuadratura de Gauss a la ecuación 15, se
deduce una expresión para dos dimensiones. Inicialmente
se resuelve la integral interior x para dejando constante h ,
luego, se integra la nueva expresión para h. La ecuación 16
representa la integral en dos dimensiones.
(16)
Para los elementos triangulares, la cuadratura de Gauss
se define por medio de la Ec. 17.
(17)
Iii. Pruebas y simulación
Fig. 4. Relación de las coordenadas naturales L con las globales x, y.
5. Integración numérica
El cálculo de la integral de la matriz de rigidez de la Ec. 9
es un paso importante en el desarrollo de los elementos finitos
en elasticidad; por lo general, las componentes de la matriz
son polinomios singulares y su integración analítica no es
posible. Debido a esto, se plantea una solución numérica por
Entre Ciencia e Ingeniería
Los concentradores en placas planas bidimensionales
que se analizan son:
-
-
-
Agujero centrado
Acanaladuras semicircular
Cambios de sección
Los cuatro tipos de elementos de aproximación del
mallado:
103
-
-
-
-
Elemento triangular de 3 nodos CST, Fig. 2.
Elemento triangular de 6 nodos LST, Fig. 2.
Elemento cuadrilátero de 4 nodos Q4, Fig. 1.
Elemento cuadrilátero de 8 nodos Q8, Fig. 1.
Con el fin de conocer cuál es la variación del factor al
refinar el mallado en las cercanías del concentrador de
esfuerzos, se realizan dos tipos de pruebas o simulaciones
para cada placa, teniendo como parámetro el refinamiento de
las aristas en las cercanías del concentrador:
- Mallado uniforme, que posee la característica de que la
longitud de arista es aproximadamente la misma. Ver Fig.
5a.
- Mallado con refinado fino, donde se realiza una reducción
de las aristas en las zonas críticas a un nivel más fino. Ver
Fig. 5b.
En el análisis por elementos finitos, el cálculo de
los esfuerzos máximos y la determinación del factor de
concentración de esfuerzos se realizan con Matlab.
A. Condiciones iniciales
En la Tabla II se encuentran contenidas las condiciones
de contorno y del material que se utilizaron para realizar las
simulaciones. Las dimensiones se pueden referenciar en la
Fig. 5. Placa con mallado uniforme (a) y mallado fino (b).
Fig. 5. Placa con mallado uniforme (a) y mallado fino (b).
En la Fig. 6 se presenta el diagrama de flujo utilizado para
resolver problemas estructurales en placas planas mediante
el MEF bidimensional, empleando la tensión plana. Se
utiliza Comsol para discretizar la placa con los elementos
de aproximación lineal CST y Q4, y para los elementos
cuadráticos ST y Q8 se recurre a las ecuaciones de punto
medio para definir los nodos intermedios de cada elemento.
Fig. 6. Diagrama de flujo para placas planas con tensión plana.
Fig. 7 y las propiedades del material corresponden a un acero
AISI 4340.
Tabla II.
Condiciones iniciales
A. Condiciones iniciales
En la Tabla II se encuentran contenidas las condiciones
de contorno y del material que se utilizaron para realizar las
simulaciones. Las dimensiones se pueden referenciar en la
Fig. 7 y las propiedades del material corresponden a un acero
AISI 4340.
La condición de frontera para la placa en las simulaciones es:
• La placa a analizar es empotrada en el extremo izquierdo.
• El extremo derecho es sometido a una carga tensionante
de 100N.
• La carga es distribuida para todos los nodos del extremo
derecho que forman parte de H como se muestra en la
Universidad Católica de Pereira
104
Fig 7. ; tomando un cuarto de para los nodos superior e
inferior, un medio para los nodos siguientes y el resto de
nodos que pudiesen existir se dividen en.
•
Fig. 7. Placa plana sometida a tensión.
Fig. 8 . Factor d e concentración d e esfuerzos (k) e n placa c on
acanaladura y l ongitud de arista u niforme empleando elementos
cuadriláteros.
Iv. Resultados
Los resultados fueron agrupados desde la Fig. 8 a la
Fig. 19, de tal forma que una gráfica contiene las curvas
con los valores obtenidos en Matlab y Comsol para cada
configuración de refinamiento, la familia de elementos y
el concentrador de esfuerzos. La recta horizontal de color
negro correspondiente al factor teórico de concentración de
esfuerzos.
Para mejorar la visualización de las gráficas, en la
Tabla 3 se tabulan las leyendas de la Fig. 8 a la Fig. 19
con su respectiva descripción. Los marcadores con forma
de cuadrado corresponden a la familia Serendípita, los
triángulos a la familia triangular.
Fig. 9 . Factor d e concentración de esfuerzos (k) e n placa c on
Tabla III.
Leyenda de las curvas de resultados
Leyenda
Correspondencia
Curva de Matlab para un elemento lineal
Curva del elemento lineal de Comsol
Curva del elemento cuadrático de Matlab
Curva del elemento cuadrático de Comsol
Curva del factor teórico calculado
analíticamente
Fig. 1 0. F actor d e concentración de esfuerzos (k) e n placa con
acanaladura y l ongitud de arista uniforme, para elementos
triangulares
Fig. 1 1. F actor de c oncentración de esfuerzos (k) e n placa c on
Entre Ciencia e Ingeniería
105
Fig. 12. F actor d e concentración d e esfuerzos (k) e n placa con
agujero y longitud de arista uniforme.
Fig. 1 6. Factor d e concentración de esfuerzos (k) e n placa con
Cambio de sección y longitud de arista
Fig. 17. F actor d e concentración de esfuerzos (k) e n placa con
Fig. 13. F actor d e concentración d e esfuerzos (k) e n placa con
Fig. 14. F actor d e concentración d e esfuerzos (k) e n placa con
agujero y longitud de arista uniforme
Fig. 18. Factor de concentración de esfuerzos en placa con Cambio
de sección y longitud de arista uniforme
Fig. 15. F actor d e concentración d e esfuerzos (k) e n placa con
Fig. 19. Factor de concentración de esfuerzos en placa con Cambio
Universidad Católica de Pereira
106
V. Conclusiones y Recomendaciones
El elemento CST programado en Matlab representa
una buena aproximación al factor teórico, este elemento de
discretización mejora los resultados al refinar el mallado y
utilizar una mayor cantidad de elementos.
El elemento CST programado en Matlab utilizando
refinado fino y una cantidad amplia de elementos, presenta
un comportamiento similar que el elemento LST programado
en Matlab.
El elemento cuadrático LST programado en Matlab
presenta buenas aproximaciones cuando se realiza un
refinado fino en las cercanías del concentrador y se trabaja
con grandes cantidades de elementos.
El elemento que más se aleja de los resultados teóricos
en los elementos triangulares es CST simulado en Comsol,
sin embargo, el proceso de refinamiento en las cercanías del
concentrador y el utilizar grandes cantidades de elementos
mejora su comportamiento.
El elemento LST simulado en Comsol presenta los
resultados más próximos al factor teórico para los elementos
triangulares. Además, los resultados no se ven afectados al
aumentar la cantidad de elementos (presenta estabilidad) y
el grado de mejoramiento al realizar el proceso de refinado
es mínimo.
Los resultados obtenidos de la programación en Matlab
(CST y LST) se encuentran intermedios entre los resultados
obtenidos de la simulación de Comsol (CST y LST), lo cual
valida los resultados simulados en Matlab.
El elemento cuadrático triangular simulado en Comsol
arroja resultados más aproximados al factor teórico que el
lineal. Al contrario de lo que se encuentra en la programación
en Matlab donde el elemento lineal arroja mejores resultados
que el cuadrático.
Los elementos Q4 programado en Matlab y el Q4
simulado en Comsol mejoran los resultados al refinar el
mallado utilizando una mayor cantidad de elementos. En
el caso de Q4 programado en Matlab se hace más próximo
hasta el punto de comportarse de forma similar al elemento
Q8 simulado en Comsol.
Los elementos serendípitos cuadráticos pueden
generar diferentes curvas de esfuerzos cuando se varía su
interpolación o cuando el esfuerzo se calcula en los nodos
o en el centroide del elemento; obteniendo unas curvas
mejores para ciertos refinados o placas y otras para otro tipo
de configuración.
El elemento Q8 simulado en Comsol no arroja una
variación significativa ante el proceso de refinado y es el
elemento de aproximación que genera los resultados más
cercanos al factor teórico.
Entre Ciencia e Ingeniería
El elemento Q8 programado en Matlab (con integración
reducida y esfuerzos en los nodos) presenta resultados
inferiores a los simulados por el elemento cuadrático de
Comsol en placas con arista de tamaño uniforme, sin embargo,
para los refinados finos, la curva es más aproximada al factor
teórico y mejor que la generada por Comsol.
El comportamiento de los resultados obtenidos con
Matlab es muy similar a los de Comsol, encontrándose
ambas curvas de Matlab contenidas entre las de Comsol para
elementos triangulares, lo cual valida el proceso realizado
para el cálculo de los factores de concentración.
Para placas donde el esfuerzo es constante en todo el
dominio, alcanzar la convergencia requiere una menor
cantidad de elementos que para geometrías más complicadas.
Cuando se hace un refinamiento en las cercanía de los
concentradores, las curvas a cierta cantidad de elementos
presentan un cambio de tendencia (que se puede representar
como un escalón) que mejora el resultado haciéndolo más
próximo al factor teórico.
La selección del tipo de elemento de análisis del mallado
incide directamente en la solución final del problema
discreto, donde elementos de orden superior obtienen una
mejor aproximación a la respuesta real que los elementos
lineales; por este motivo se pone en consideración el
estudio de problemas de elasticidad para elementos cúbicos,
cuarticos y quinticos.
También se puede profundizar en la integración de la
matriz de rigidez, haciendo comparativos entre elementos
integrados completamente y elementos con integración
reducida hasta la mínima cantidad de puntos de Gauss
permitidos; inclusive, elementos integrados selectivamente.
Configuraciones de mallas con tipos de elementos
combinados (triangulares con cuadráticos) prácticamente
son inexistentes, ya que son muy escasos los programas
computacionales que lo permiten hacer. El desarrollo de este
tipo de mallados, con elementos de transición y funciones de
forma especiales para estos nodos exige un estudio detallado.
Referencias
[1].Celigüeta Juan T, “Método de los elementos finitos para análisis
estructural”. Cuarta edición. Tecnum. 2011.
[2].Daryl Logan, “A first course in the Finite Element Method”. Cengague
learding 2012.
[3].Vanegas Libardo, (19/11/2012). “Carga estática simple”. Disponible en:
http://blog.utp.edu.co/lvanegas/files/2011/08/Cap3.pdf, (29/05/2013).
Beer Ferdinand, Johnston Russell, “Mecánica de materiales”. Quinta
edición. McGraw-Hill México 2009.
[4].González Héctor Eduardo. Determinación del factor de concentración
de esfuerzos en una placa con múltiples concentradores de esfuerzo
mediante Algor. Escuela de Ingeniería, Universidad de las Américas
Puebla, México 2003.
[5].Pilkey, Walter D., Deborah F. “Peterson’s Stress Concentration
Factors”. Third edition. Wiley Inc, 2008.
[6].Norton, Robert L. “Diseño de máquinas un enfoque integrado”. Cuarta
107
edición. Prentice hall, México 2011.
[7].Hughes, Thomas “The Finite Element Method”. Prentice Hall, United
Stated.1987.
[8].Kattan Peter I.,“Matlab guide to finite elements an interactive
approach”. segunda edición, Springer 2008.
[9].Zienkiewwicz O.C., Taylor R.L. “El método de los elementos finitos
formulación básica y problemas lineales”. Volumen 1, Cuarta edición,
Mc Graw-Hill, España. 1994.
[10]. Chavez Eduardo W. V., Minguez Roberto. “Mecánica computacional
en la ingeniería con aplicaciones en Matlab”. Universidad de Castilla-la
Mancha, España 2010.
[11] Kratzig Wilfried B.,Zhang Jian-Wu.1994. A simple four-node
quadrilateral finite element for plates. Journal of computational and
applied mathematics. Vol 50. 361-373.
[12] Tenchev Rosen T. 1998. A study of accuracy of some FEM stress
recovery schemes for 2D stress concentration problems. Finite
Elements in analysis and design. Vol 29. 105-119.
[13] Colberg O Poul .1999. Evaluation of triangular plate elements in
rigid-plastic finite element analysis of reinforced concrete. Computer
methods in applied mechanics and engineering. Vol 179. 1-17.
[14] Kikuchi Fumio, Okabe Masayuki, Fujio Hidehiro. 1998. Modification
of the 8-node serendipity element. Computer methods in applied
mechanics and engineering. . Vol 179. 91-109.
[15] Sadek Edward A. 1998. Some serendipity finite elements for the
analysis of laminated plates. Computer & structures. Vol 69. 37-51.
Juan Sebastian Clavijo Gonzalez,
nació el 15 de marzo de 1990 en Pereira
Risaralda, Colombia. Se graduó como
Tecnólogo en Mantenimiento electrónico
e instrumentación industrial en marzo de
2009 en el SENA. El 17 de Julio de 2.015
en la Universidad Tecnológica de Pereira
consiguió su título de Ingeniero Mecánico.
Actualmente trabaja como ingeniero de
mantenimiento en un proyecto de Dupont en
Ternium Colombia.
César Daniel Montoya Osorio, nació
en Pereira-Risaralda, Colombia, el 20 de
Mayo de 1991. Se graduó en 2015 en la
Universidad Tecnológica de Pereira como
Ingeniero Mecánico. Ha participado en
proyectos de desmonte de maquinaria
industrial.
Luis Carlos Flórez García, nació en
Pereira, Risaralda, el 17 de Mayo de 1978.
Egresado del Colegio Calasanz de Pereira
e Ingeniero Mecánico de la Universidad
Tecnológica de Pereira, master en Ingeniería
Mecánica de la Universidad de los Andes
en Bogotá. Actualmente es estudiante de
doctorado de la Universidad Politécnica
de Cataluña en Ingeniería Mecánica, Fluidos y Aeronáutica. Ha trabajado
para la Universidad de los Andes. Se ha desempeñado como ingeniero
de mantenimiento y asesor para diferentes empresas. Actualmente es
docente de planta de la Universidad Tecnológica de Pereira en la facultad
de Ingeniería Mecánica, investigador de equipos interdisciplinarios y
pertenece a diferentes grupos de investigación.
Universidad Católica de Pereira
108
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 108 - 113
Especificación de requisitos de software: una mirada desde la
revisión teórica de antecedentes1
Software requirements specification: an overview from the
theoretical background checking
Especificação de requisitos de software: um olhar a partir da revisão
teórica de antecedentes
A. Toro y J. G. Gálvez
Recibido Diciembre 10 de 2015 – Aceptado Febrero 19 de 2016
Resumen— El presente artículo pretende dar cuenta
de una revisión teórica de antecedentes relacionados con la
especificación de requisitos de software, realizada como parte
del proyecto de investigación denominado “Procedimiento
para especificar y validar requisitos de software en MIPYMES
desarrolladoras de software, basado en estudios previos en la
región”. Lo anterior responde a la necesidad de indagar sobre
los problemas de calidad del sector del software relacionado
con el tratamiento que se les hace a los requisitos como un
punto clave para lograr productos y procesos de calidad, con el
ánimo de desarrollar propuestas que contribuyan a mejorarla,
inicialmente en la industria que se representa desde la ciudad
de Pereira. Para ello, se hace un recorrido por algunos trabajos
que permiten dar cuenta de los logros que se han alcanzado en
investigaciones similares y que tienen como objeto de estudio
los requisitos, reconociendo, a partir de unos antecedentes
regionales, nacionales e internacionales los orígenes de ese
problema y las propuestas que se han desarrollado para ayudar
a corregirlo. Finalmente, y como conclusión, se encuentra que
han sido muchas las propuestas que de una u otra manera
pretenden contribuir al mejoramiento de la calidad del software
a partir de los requisitos, pero en ninguna de las revisadas se
ha propuesto un método, proceso o lineamiento claramente
definido para elaborar una completa, consistente, modificable y
Producto derivado del proyecto de investigación “Procedimiento para
especificar y validar requisitos de software en MIPYMES desarrolladoras
de software, basado en estudios previos en la región”. Presentado por el
Grupo de Investigación e Innovación en Ingeniería (GIII), de la Facultad
de Ciencias Básicas e Ingeniería, de la Universidad Católica de Pereira
y el Grupo de Investigación Ingeniería de Software, de la Facultad de
Ingenierías, de la Universidad Autónoma de Manizales.
A. Toro, es director del programa de Ingeniería de Sistemas y Telecomunicaciones de la Universidad Católica de Pereira, Pereira (Colombia);
email: [email protected]
J. G. Gálvez, ejerce como profesional en la Unidad de Gestión de Tecnologías Informáticas y Sistemas de Información (UGTISI) de la Universidad
Tecnológica de Pereira como Ingeniero Desarrollador de Software, Pereira
(Colombia); email: [email protected]
1
Entre Ciencia e Ingeniería
trazable, específicamente de requisitos de software en las micro,
pequeñas y medianas empresas (MIPYMES) de Colombia.
Palabras clave— especificación, requisitos de software,
antecedente.
Abstract— This article aims to explain theoretical
background checks related to the software requirements
specification conducted as part of the research project entitled
“Method to specify and validate software requirements in
MSMEs based on previous studies in the region”. It responds
to the need to investigate the quality problems in software
related to treatment that is made to the requirements as a key
point to achieve quality products and processes, with the aim of
developing proposals to help improve initially in the industry
that it is represented from the city of Pereira. To do this, a study
of some research that allow the account of the achievements
that have been obtained in similar investigations and whose
object of study requirements, recognizing from a regional,
national and international history the origins of this problem
becomes and proposals that have been developed to help its
correction. Finally and as a conclusion, we find that there have
been many proposals that in one way or another pretends
to contribute to the improvement of the quality of software
from requirements, but any method, process or guidelines
clearly defined to develop a complete, consistent, modifiable
and traceable has been proposed in any of them, specifically
about software requirements for small and medium enterprises
(SMEs) in Colombia.
Key
words—specification,
background.
software
requirement,
Resumo – O presente artigo pretende explicar uma revisão
teórica de antecedentes relacionados com a especificação de
requisitos de software, realizada como parte do projeto de
investigação denominado “Procedimento para especificar e
validar requisitos de software em MPMEs baseado em estudos
109
prévios na região”. O anterior responde a necessidade de
indagar sobre os problemas de qualidade do setor de software
relacionado com o tratamento que se faz aos requisitos como um
ponto chave para alcançar produtos e processos de qualidade,
com o animo de desenvolver propostas que contribuam a
melhora-la, inicialmente na indústria que se representa desde
a cidade de Pereira. Para este, se faz um recorrido para
alguns trabalhos que permitem explicar os resultados que se
alcançaram em investigações similares e que tem como objeto de
estudo os requisitos, reconhecendo, a partir de uns antecedentes
regionais, nacionais e internacionais, as origens de este problema
e as propostas que vão se desenvolvendo para ajudar a corrigir.
Finalmente e como conclusão, se encontra que têm sido muitas
as propostas que de uma ou outra maneira pretendem contribuir
ao melhoramento da qualidade do software a partir dos
requisitos, mas em nenhuma das revisadas foram encontradas
um método, processo ou alinhamento claramente definido para
uma completa elaboração, consistente, modificável e traçável,
especificamente de requisitos de software no micro, pequenas e
medianas empresas (MIPYMES) de Colômbia.
muchos proyectos de software fracasen. Adicionalmente,
debido a que no se realiza un estudio previo de los requisitos
del usuario, no se hace una definición completa del alcance
del proyecto y no se realiza el modelado del negocio antes
de desarrollar el software, el equipo desarrollador o analista
no se involucra en el problema y aunque tiene claro que el
sistema debe desarrollarse para dar soporte a los procesos de la
organización, si el equipo no se involucra en la problemática
se corre el riesgo de que los requisitos identificados no
correspondan a las necesidades para lo que se debe crear [8].
Por otra parte, [9] menciona que las principales causas de
fracaso de los proyectos son las siguientes:
Palavras chave: especificação, requerimentos de software,
antecedente.
I. Introducción
L
os requisitos de software representan una parte
fundamental en la consecución de la calidad, tanto
así que existe una disciplina denominada ingeniería de
requisitos [1], [2], [3] para desarrollar una especificación
completa, consistente y no ambigua, la cual servirá
como base para acuerdos comunes entre todas las partes
involucradas, dónde se describen las funciones que realizará
el sistema. Así mismo, autores como [4] consideran que todo
lo concerniente a requerimientos hace parte de un dominio
entero denominado Ingeniería de Requisitos, que a la vez es
dividido tanto en Desarrollo como en Gestión de Requisitos.
La ingeniería de requisitos cumple un papel primordial en el
proceso de producción de software, ya que enfoca un área
fundamental: la definición de lo que se desea producir. Su
principal tarea consiste en la generación de especificaciones
correctas que describan con claridad, sin ambigüedades,
en forma consistente y compacta, el comportamiento del
sistema. Como disciplina, establece el proceso de definición
de requisitos en una sucesión de actividades mediante
las cuales lo que debe hacerse se “elicita”, se modela y
se analiza [5]. Por su parte [6] indican que la Ingeniería
de Requisitos es un enfoque sistémico para recolectar,
organizar y documentar los requerimientos del sistema; es
también el proceso que establece y mantiene acuerdos sobre
los cambios de requerimientos, entre los clientes y el equipo
del proyecto. De la misma manera, [7] mencionan que “la
Ingeniería de Requisitos es la ciencia y disciplina a la cual
le concierne el establecer y documentar los requerimientos”.
Así pues, al entender que la ingeniería de requisitos
es la fase de un proyecto software donde se definen las
propiedades y la estructura del mismo; y que a la vez
comprende el desarrollo y gestión de requisitos, se entiende
también que debe realizarse de manera adecuada, pues
omitir información en esta actividad ha provocado que
Ilustración 1. Factores de falla o cancelación en los proyectos
(CRISTIÁ, 2011)
Por lo anterior, y partiendo de las problemáticas
expuestas, se han realizado diversos estudios y publicaciones
que tratan el tema con el fin de enfatizar en la importancia
de los requisitos y su responsabilidad en el aseguramiento
de la calidad del software. Algunos de ellos, como la guía
al cuerpo de conocimientos para la ingeniería del software
SWEBOK® (Software Engineering Body of Knowledge)
propuesto por la IEEE [10], en su versión 2014 trata el tema
como la primera de sus áreas del conocimiento (KA por
sus siglas en inglés Knowledge Areas), en la que se refiere
a la captura, el análisis, la especificación y la validación
de los requisitos del software y contempla una serie de
aspectos y conceptos que llevan al software a ser objeto
de aplicación de la ingeniería. Como producto de salida al
proceso correspondiente de aplicar los conocimientos del
área se logra un documento que permita sistematizar, revisar,
evaluar y aprobar todo lo relacionado con los requisitos del
software [11].
II. Contenido
Se detecta -a manera de hipótesis- un problema en
el sector del software, específicamente en la industria
que se representa desde la ciudad de Pereira: el problema
relacionado con el tratamiento que se le hace a los requisitos
de software como un punto clave para lograr productos y
procesos de calidad. Con la intensión de ofrecer alternativas
que permitan hacer frente a dicho problema del que adolece
la industria, se hace necesario reconocer antecedentes
regionales, nacionales e internacionales que permitan dar
Universidad Católica de Pereira
110
cuenta de los logros que se han alcanzado en investigaciones
similares y que tienen como objeto de estudio los requisitos:
A. Del orden regional
La Universidad Tecnológica de Pereira ha mostrado
interés en explorar, a manera de investigación o con
proyectos de desarrollo, los problemas que se presentan en
las empresas desarrolladoras de software respecto al área
de los requisitos de software [10]. Es así como [12] notaron
que el crecimiento del mercado del software conlleva
a la aparición de microempresas en el Departamento
de Risaralda que procuraban cubrir esta gran demanda
tecnológica, pero debido a la falta de experiencia en los
procesos de certificaciones, hacen que los productos no sean
competitivos con mercados nacionales e internacionales, es
de ahí que se nota el interés por los autores antes descritos
en implementar una guía de buenas prácticas en las áreas
de gestión de requerimientos y planeación del proyecto para
las microempresas desarrolladoras de software, basada en
CMMI [13].
Teniendo esta clase de guía antes descrita basada en un
modelo internacional que sirve de referencia para la gestión
de requisitos [14], de la misma universidad mostraron el
interés por medio de un proyecto de investigación logrando
elaborar el análisis y diseño de una herramienta gráfica para
los procesos de la ingeniería de requisitos que tiene como
objetivo proporcionar un mecanismo visual de comunicación
para identificar de forma inequívoca las necesidades que
dan lugar al desarrollo de un proyecto de software, como
también dar sencillez a la monitorización de la información
que se genera en los procesos de la ingeniería de requisitos.
Así mismo, se ha considerado que una parte vital en
un proyecto de desarrollo de software es la gestión que se
lleve a cabo de los requisitos que este debe satisfacer para
ser catalogado como un producto de calidad, lo cual reviste
gran importancia y es parte fundamental en los proyectos
de software. En este sentido, se han realizado diferentes
investigaciones alrededor del tema con el objetivo de
encontrar mejores prácticas, herramientas y métodos que
faciliten dicha gestión. [15] por ejemplo, han mostrado
preocupación en estudiar una parte específica de la ingeniería
de requisitos concerniente a la recolección de los mismos,
planteando como objetivo de su investigación la elaboración
de un documento que analiza los métodos de obtención de
requerimientos y sus enfoques de selección, con miras a
minimizar problemas relacionados con la mala gestión de los
requisitos en el desarrollo de proyectos de software, esto se
debe a que la obtención de requisitos, por ser una actividad
que es llevada a cabo por personas, cada quien expone su
punto de vista subjetivo haciendo que se haga más compleja
la comunicación y el entendimiento por parte de los analistas,
quienes más tarde usarán los detalles de la elicitación para
especificar lo que el software debe satisfacer.
Por su parte, [16] en su artículo denominado “La
Entre Ciencia e Ingeniería
ingeniería de requerimientos en las pequeñas empresas del
departamento de Risaralda”, muestran el estado actual del
proceso de ingeniería de requisitos en las pequeñas empresas
que desarrollan software en el departamento de Risaralda,
además de observar cómo se aborda esta área desde la
academia. A partir de su proyecto de investigación plantean
la creación de una metodología para la adquisición y gestión
de requisitos en el desarrollo de software para PYMES del
departamento de Risaralda. Para ello se desarrollaron tres
fases: recopilación de datos, estructuración de la metodología
y validación de la metodología.
Finalmente, cabe destacar algunos estudios e
investigaciones que han arrojado resultados importantes
para el mejoramiento de la calidad del software, así como
propuestas y productos que contribuyen significativamente
a mejorar el trabajo con los requerimientos en las empresas
desarrolladoras de software de la región y el país. El
Grupo de Investigación e Innovación en Ingenierías de la
Universidad Católica de Pereira (GIII-UCP), ha desarrollado
–a partir de una serie de proyectos de investigación para
caracterizar la industria del software en Colombia respecto
a la calidad del producto, el proceso de desarrollo y el uso
de metodologías, entre otros- una “Propuesta metodológica
para estandarizar el proceso de construcción y evaluación
del producto software que permita a las Pymes colombianas
medir la calidad del software” [11], a partir de la cual se ha
logrado la formulación de un modelo para el desarrollo y la
gestión de proyectos de software.
B. Del orden nacional
Se determina de igual manera que en el ámbito nacional
se han llevado a cabo investigaciones importantes en el
tema de requerimientos de software, pues la carencia de una
buena gestión de requerimientos en los proyectos software
ha demandado la necesidad -como lo estipula [17]- de un
instrumento para la generación del proceso de desarrollo de
requerimientos de software para micro y pequeñas empresas,
pues según los autores no existe un instrumento que sugiera un
proceso de desarrollo de software con base en características
de la organización y en buenas prácticas, sobre el cual la
organización pueda iniciar su proceso de mejoramiento ya
que los procesos de mejoramiento de desarrollo de software
existentes aceptadas internacionalmente como lo son
CMMI, SPICE [18] y TSP [19] implica mayor complejidad,
mayor cantidad de prácticas, rigidez y costos a la hora de su
implementación en este tipo de organizaciones.
Por su parte, [20] son conscientes de que los analistas
se suelen expresar en lenguaje técnico del desarrollo de
software y los interesados se interesan más por el lenguaje
natural, propio de su dominio de conocimiento, por tal razón
los autores proponen un modelo de diálogo encaminado a la
educción de requisitos de software utilizando las entrevistas
como método más utilizado entre analistas e interesados, es
así como surge una oportunidad de plantear el modelo que
supla la carencia de una estructura definida en las entrevistas
111
con el objetivo de evitar que el analista realice de manera
subjetiva el proceso de educción de requerimientos.
En la misma línea, [21] deciden presentar una revisión
de la literatura referente a la ingeniería de requisitos,
relacionada con métodos formales y semi-formales usados
en la especificación de requisitos tempranos, como también
en la validación y verificación de requisitos especificados,
manifestando además que una especificación formal es
aquella que está expresada en un lenguaje cuyo vocabulario,
sintaxis y semántica, se han definido formalmente. Por
lo general, este tipo de lenguajes se basan en conceptos
matemáticos, como son la teoría de conjuntos, la lógica, el
álgebra y la matemática discreta.
En el suroccidente colombiano también se ha investigado
alrededor de los requerimientos de software. [22]
presentan como resultado del proyecto de investigación
“Implementación de los modelos livianos de gestión de
requerimientos y gestión de la configuración y diseño de un
modelo liviano de apoyo al área de aseguramiento de la calidad
del proceso de desarrollo de software para pequeñas empresas
del Valle del Cauca”, la definición de una metodología ágil
de ingeniería de requerimientos para empresas emergentes
de desarrollo de software del suroccidente colombiano. La
misma se basa en que las empresas emergentes no logran
aplicar modelos y metodologías de calidad reconocidos
internacionalmente, pues su gran obstáculo se observa en los
altos costos de implementación, el recurso humano requerido
y los estándares exigidos que restringen la creatividad, parte
importante de su capital.
Finalmente, y de la misma manera [23] citado por [24]
de la Universidad ICESI de Cali propone una guía para
la preparación de un documento de requerimientos para
proyectos de sistemas por computador tanto en lo referente
a hardware como a software. La misma menciona que “el
propósito del documento de requerimientos es la razón de
ser de un proyecto dado” puesto que constituye el conjunto
de necesidades que dan lugar a la iniciación del proyecto
y sirven para definir lo que va a hacerse. Según la autora,
la guía pretende establecer un marco general con los
diferentes aspectos que debe cubrir un buen documento
de requerimientos y que será el pilar del desarrollo de
cualquier proyecto de software o de hardware a realizarse.
Oros autores del país que abordan el tema desde diferentes
miradas, pero relacionados con el proceso de desarrollo y
gestión de requisitos son: [25] elicitación de requisitos, [26]
análisis de requisitos y [27] gestión de requisitos.
C. Del orden internacional
Respecto al ámbito internacional, son muchas las
investigaciones llevadas a cabo sobre los requisitos de
software que aportan significativamente a la construcción de
este artículo, pues hacen alusión a aspectos importantes a
tener en cuenta a la hora de determinar los factores de éxito
y fracaso en el trabajo con los requerimientos de software,
tales como aquellos relacionados con: la captura, análisis y
especificación de requisitos, así como la identificación de
los stakeholders o interesados, las técnicas y herramientas
utilizadas en el proceso, así como la complejidad y
efectividad de las mismas.
Siguiendo la línea del proceso de requisitos, como parte
del análisis y especificación de los mismo se determina,
por parte de [28] que, en aras de mejorar la calidad de
la fase de Ingeniería de Requisitos en los proyectos de
desarrollo, se realizaron varios estudios que concluyeron
con la elaboración de una solución que permite, dentro de
la Ingeniería de Requisitos, determinar la complejidad de
los requisitos funcionales del software mediante variables
y métodos matemáticos, fortaleciendo y apoyando, con
mayor precisión, la clasificación de los mismos. También se
aplicaron encuestas a expertos como método de investigación
para identificar variables.
Por su parte, [29] presentan una metodología para la
Ingeniería de Requerimientos denominada DoRCU, la cual
se caracteriza por su flexibilidad y orientación al usuario.
Considera los mejores resultados de diferentes enfoques
examinados y se apoya en diversos métodos, técnicas y
herramientas ya desarrollados por otros autores, pero sin
comprometerse con los lineamientos de un paradigma en
particular. Tiende, además, a que se unifique la terminología
empleada en el campo de la Ingeniería de Requisitos,
eliminando de esta manera aparentes discrepancias que sólo
son la consecuencia de confusiones semánticas que dificultan
aún más el proceso de definición de requerimientos.
De igual forma, [30] presentan un estudio denominado
“Hacia una especificación dinámica requisitos de software”,
el cual se centra en la documentación de los requisitos
de software y más puntualmente en el documento de
especificación de requisitos del software. Su objetivo, como
ellos lo manifiestan, es ayudar a los ingenieros de requisitos
a ser más eficientes en la redacción de este documento.
Para ello, proponen un modelo de documento dinámico
para representar dicha especificación, en el que la mayor
parte se alimenta automáticamente de una base de datos de
requisitos. Los autores se centraron principalmente en la
parte del texto de la especificación en la que se requiere un
mayor conocimiento del dominio del problema y experticia
al escribir.
Adicionalmente, los autores hacen un recorrido por
diferentes propuestas, a partir de las cuales lograron
identificar un conjunto de problemas que ocurren en la
plantilla actual de Especificación de Requerimientos o
SRS (Software Requirements Specification, por sus siglas
en inglés) del estándar IEEE 830-1998 [31], para el cual
proponen una ampliación con el objetivo de crear una
relación de derivación entre los requisitos del usuario y los
requisitos del sistema. Todo ello mediante una representación
XML del documento SRS y la construcción de un esquema
SRS, mediante el cual se argumenta que se permitirá a
los ingenieros de requerimientos ser más eficientes en la
redacción del SRS.
Universidad Católica de Pereira
112
Apoyando lo anterior, [4] citado por [32] manifiestan
que, para lograr un producto de software de alta calidad, los
requisitos deben satisfacer varias características y cumplir
ciertos criterios tales como los propuestos en la Ilustración
1. Si no lo hacen, deben ser reformulados hasta conseguirlo.
técnicas para llevar a cabo una especificación formal de los
requisitos, asegurando que su implementación podría reducir
significativamente su ambigüedad e incompletitud de una
forma más rápida y anticipada, minimizando el número de
errores durante el proceso.
Por lo anterior, la identificación y tratamiento de estos
errores en etapas tempranas del proyecto de software es
crucial para disminuir los costos de su operación y evitar
errores en etapas posteriores del desarrollo.
Ilustración 2. Características de un buen requisito. (Elaboración
propia a partir de WIEGERS & BEATY, 2013)
Sin embargo, en algunas ocasiones los requerimientos no
satisfacen dichas propiedades, lo que se traduce en errores y
en mala calidad del producto que se está desarrollando. En
la mayoría de las prácticas, los requerimientos de software
se especifican utilizando un lenguaje natural en particular
debido a su flexibilidad y simplicidad, como lo argumentan
autores tales como [32], [33] de Indonesia, [34] de Japón
y, [35] de Reino Unido, entre otros. Sin embargo, dicho
lenguaje natural con frecuencia hace que la especificación
sea propensa a la ambigüedad e incompletitud.
Con el fin de reducir al máximo la ocurrencia de
los inconvenientes mencionados anteriormente, se han
propuesto e implementado diversas maneras de llevar a
cabo la especificación de requisitos, algunas de ellas según
[26] consisten en especificar requerimientos utilizando
un lenguaje natural estructurado. “Se considera lenguaje
natural al lenguaje utilizado a diario entre los integrantes
de la organización. Se caracteriza por estar orientado a una
descripción más humana y generalizada, y no regido por
consideraciones técnicas específicas”. En la misma línea,
autores como [36] y [37] desde el enfoque de metodologías
de análisis de requisitos o [38] con guías para la extracción,
análisis, especificación y validación de requisitos. También
[39], [40], [41], [42] y [43], entre otros, hacen sus aportes
al desarrollo y gestión de requisitos a través de diferentes
métodos, técnicas y herramientas específicas. Finalmente,
[30] y [44] se centran en aspectos de la especificación de
requisitos en lenguaje natural y especificación formal.
III. Conclusiones
Luego de realizar un recorrido por diferentes estudios
y propuestas, se encuentra a manera de conclusión que,
en la mayoría de las prácticas, los requisitos de software
se especifican utilizando un lenguaje natural en particular
debido a su flexibilidad y simplicidad. Sin embargo, dicho
lenguaje natural con frecuencia hace que la especificación
sea propensa a la ambigüedad e incompletitud, dificultad
ampliamente evidenciada por las empresas desarrolladoras
de software de la región cafetera.
Para evitar lo anterior y reducir las falencias propias
atribuidas al uso del lenguaje natural, se propone en diferentes
trabajos el uso de métodos, lenguajes, herramientas y
Entre Ciencia e Ingeniería
Así pues, la especificación formal fuerza el análisis
detallado de los requerimientos, lo cual puede revelar errores
potenciales que podrían de otra forma no ser descubiertos
sino hasta que el sistema esté en producción.
No siendo ajeno a lo anterior, es fundamental mencionar
que, si bien este tipo de especificación contribuye al
mejoramiento de la calidad de la etapa de requisitos, resulta
notorio la demanda elevada de recursos económicos, de
personal calificado y de tiempo del proyecto para poseer un
documento formal de especificación de requisitos.
Finalmente, es importante destacar que en el ámbito
regional existen varios estudios tendientes a diagnosticar
dificultades en el trabajo que realizan las MIPYMES con
los requisitos, al igual que propuestas para corregir dichas
dificultades. Sin embargo, hace falta evidencia de su puesta
en práctica en el medio y de mejoras obtenidas como
resultado de su aplicación.
Referencias
[1] B. Boehm, Software Engineering Economics, New Jersey: Prentice
Hall, 1981.
[2] I. Sommerville, Ingeniería de Software, Madrid: Pearson, 2011.
[3] R. S. Pressman, Ingeniería del Software UIn enfoque práctico,
Septima edición ed., McGraw-Hill, 2010.
[4] K. Wiegers y J. Beaty, Software Requierements, Third Edition ed.,
Redmon, Washington: Microsoft Press, 2013.
[5] B. Ayala, C. M. Ramírez y L. M. Ocampo, «La Ingeniería de
Requerimientos aplicada al desarrollo de sistema de información,»
2012. [En línea]. Available: gimnasioblc.googlecode.com/files/
ARTICULO.pdf. [Último acceso: 06 Junio 2014].
[6] R. Oberg, L. Probasco y M. Ericsson, «Applying requirements
management with use cases,» 2003. [En línea]. Available: http://
www.uml.org.cn/RequirementProject/pdf/apprmuc.pdf.
[7] R. Thayer y M. Dorfam, Software Requirements Engineering,
Segunda edición ed., Los Alamitos, California: IEEE Computer
Science Press, 2000.
[8] RED COLABORATIVA POSTGRADOS UCV, «Los Requerimientos
y su importancia en el desarrollo del Software,» 2012. [En
línea].
Available:
http://kuainasi.ciens.ucv.ve/red_educativa/
blogs/20?language_id=1. [Último acceso: 15 Junio 2014].
[9] M. Cristiá, «Introducción a la Ingeniería de Requerimientos,»
2011. [En línea]. Available: http://www.fceia.unr.edu.ar/~mcristia/
publicaciones/ingreq-a.pdf. [Último acceso: 20 Junio 2014].
[10] IEEE, SWEBOK Guide V3.0, Piscataway: IEEE, 2014.
[11] L. E. Peláez Valencia, «Propuesta metodológica para estandarizar
el proceso de construcción y evaluación del producto software que
permita a las PyMES medir la calidad del software,» Pereira, 2011.
[12] F. Correa Botero y G. González Bedoya, «Guía para implementar
buenas prácticas en las áreas de procesos de gestión de requerimientos
y planeación del proyecto para las microempresas desarrolladoras de
software, basada en CMMI,» Pereira, 2009.
[13] SEI, «CMMI Guía para la integración de procesos,» 2009. [En línea].
113
Available:
http://www.sei.cmu.edu/library/assets/cmmi-dev-v12spanish.pdf.
[14] D. Lema Becerra y L. F. Rodas Valencia, «Análisis y Diseño de una
herramienta gráfica para los procesos de ingeniería de requisitos,»
Pereira, 2012.
[15] M. Rangel Grisales y V. Peláez Betancur, «Métodos de obtención de
requerimientos y sus enfoques de selección,» Pereira, 2013.
[16] C. A. De la Cruz Londoño y G. A. Castro Guevara, «La Ingeniería
de Requerimientos en las Pequeñas Empresas del Departamento de
Risaralda,» Lámpsakos, nº 12, pp. 110-119, 2014.
[17] A. Varela Galvis y G. E. Arango Sterling, «INSTRUMENTO
PARA LA GENERACIÓN DEL PROCESO DE DESARROLLO
DE REQUERIMIENTOS DE SOFTWARE PARA MICRO
Y PEQUEÑAS EMPRESAS,» 2012. [En línea]. Available:
http://bibliotecadigital.icesi.edu.co/biblioteca_digital/
bitstream/10906/70626/1/instrumento_generacion_proceso.pdf.
[18] ISO/IEC, Software Process Improvement and Capability
dEtermination (SPICE), Geneva: ISO, 1995.
[19] W. Humphrey, Team Software Process, Massachusetts: Addison
Wesley Professional, 1999.
[20] C. M. Zapata y N. Carmona, «Un modelo de diálogo para la educción
de requisitos de software,» Revista Dyna, nº 164, pp. 209-219, 2009.
[21] L. O. Chaparro Lemus y C. C. Uribe Sandoval, «Métodos formales
para la especificación de requisitos tempranos,» Revista Proyección
Universitaria, nº 36, pp. 49-72, 2011.
[22] L. Merchan, A. Urrea y R. Rebollar, «Definición de una metodología
ágil de ingeniería de requerimientos para empresas emergentes
de desarrollo de software del sur-occidente colombiano,» Revista
Científica Guillermo de Ockham, Universidad de San Buenaventura,
vol. 6, nº 1, pp. 37-50, 2008.
[23] M. E. Valencia, «Guia para la preparación de un documento de
requerimientos,» Santiago de Cali, s.f..
[24] M. E. Valencia de Avadía, «Guia para la preparación de un documento
de requerimientos,» Universidad Icesi, 2013.
[25] C. M. Zapata J y J. F. Arango Isaza, «Alineación entre metas
organizacionales y elicitación de requisitos del software,» Revista
Dyna, vol. 71, nº 143, pp. 101-110, 2004.
[26] A. N. Camacho Zambrano, «Herramienta para el análisis de
requerimientos dentro de la pequeña empresa desarrolladora de
software en Bogota,» Bogota, 2005.
[27] B. Martínez Vaca y C. A. Ospina Arredondo, «Proceso para la
formulación de inicitaivas de requerimientos de software a partir de
los objetivos estratégicos organizacionales,» Santiago de Cali, 2011.
[28] D. Mustelier S y Y. Viera L, «Variables that Define the Complexity of
the Software Functional Requirements,» Revista Antioqueña de las
Ciencias Computacionales y la Ingeniería de Software, vol. 3, nº 2,
pp. 38-42, 2013.
[29] M. G. Báez y S. I. Barba Brunner, «Metodología DoRCU para
la Ingeniería de Requerimientos,» Workshop em Engenharia de
Requisitos, pp. 210-222, 2001.
[30] A. Chikh y H. Alajmi, «Towards a dynamic software requirements
specification,» IEEE Journal, pp. 8-14, 2014.
[31] IEEE, IEEE Std. 830, IEEE, 1998.
[32]H. G. Salazar Osorio, H. J. Rengifo Romero, L. E. Machuca
Villegas y J. A. Aranda Bueno, «UNA GUÍA GENERAL PARA
LA ESPECIFICACIÓN Y VERIFICACIÓN FORMAL DE
REQUERIMIENTOS USANDO EVENT-B™ Y RODIN™,» Revista
Educación en Ingenieria, vol. 7, nº 14, pp. 82-91, 2012.
[33] A. Fatwanto, «Software Requirements Specification Analysis Using
Natural Language Precessing Technique,» Quality in Research IEEE,
pp. 105-110, 2013.
[34] Y. Matsuo, K. Ogasawara y A. Ohnishi, «Automatic Transformation
of Organization of Software Requirements Specifications,» IEEE
Journal, pp. 1-10, 2010.
[35] A. Umber y I. Sarwar Bajwa, «Minimizing Ambiguity in Natural
Language Software Requirements Specification,» IEEE Journal, pp.
102-107, 2011.
[36] A. Durán Toro y B. Bernárdez Jiménez, «Metodología para el Análisis
de Requisitos de Sistemas Software,» Diciembre 2001. [En línea].
Available: www.infor.uva.es/~mlaguna/is1/materiales/metodologia_
analisis.pdf. [Último acceso: 30 11 2015].
[37] M. D. l. á. Sumano López, «Áncora: Metodología para el Análisis de
Requerimientos de Software conducente al Reuso,» 2001.
[38] N. Davyt Dávila, «Ingenieráa de Requerimientos: una guía para
extraer, analizar, especificar y validar los requerimientos de un
proyecto,» 2001. [En línea]. Available: http://u.jimdo.com/www21/o/
[39]
[40]
[41]
[42]
[43]
[44]
[45]
[46]
[47]
[48]
[49]
[50]
s3ca10756ba149b19/download/m895f5b4d9cd5f0b1/1251925731/
ingreq.pdf.
C. Rupp, «Linguistic methods of Requirements Engineering (NLP),»
Nürnberg, 2002.
M. I. Lund, M. Herrera, L. Aballay y S. Zapata , «Comparación de
Técnicas de Lectura de Documentos de Requisitos de Software Diseño
de un Experimento,» Revista Avances en Sistemas e Informática, vol.
4, nº 3, pp. 117-129, 2007.
D. Carrizo Moreno, «Comparación de efectividad de las técnicas de
educción de requisitos software vision novel y experta,» Ingeniare.
Revista chilena de ingeniería, vol. 20, nº 3, pp. 386-397, 2012.
A. Hossian, O. Dieste y R. García Martínez, «Conceptualización de
requerimientos: propuesta de proceso y técnicas asociadas,» Madrid,
Neuquén, Buenos Aires, 2012.
C. Burnay, I. J. Jureta y S. Faulkner, «What stakeholders will or
will not say A theoretical and empirical study of topic importance
in Requirements Engineering elicitation interviews,» Information
Systems, vol. 46, pp. 61-81, 2014.
J. A. Dorigan y R. M. De Barros, «A Process Model for Standardization
and Increase in the Requirements Quality,» IEEE LATIN AMERICA
TRANSACTIONS, vol. 12, nº 8, pp. 1502-1507, 2014.
L. E. Peláez Valencia, «SWEBOK – IEEE | Guide to the Software
Engineering Body of Knowledge; Un resumen ejecutivo,» Pereira,
2010.
C. M. Zapata J, A. F. Jaramillo F y F. Arango I, «Una propuesta
para mejorar la completitud de requisitos utilizando un enfoque
lingüístico,» Revista Ingeniería & Desarrollo, nº 19, pp. 1-16, 2006.
C. M. Zapata Jaramillo y G. L. Giraldo G, «El juego del diálogo de
educción de requisitos,» Revista Avances en Sistemas e Informática,
vol. 6, nº 1, pp. 105-114, 2009.
J. E. Gómez Maldonado, G. Urrego Giraldo y L. González Palacio,
«REASEM: Herramienta para la gestión de requisitos,» Revista
Avances en Sistemas e Informática, vol. 6, nº 2, pp. 59-67, 2009.
M. A. Toranzo Céspedes, G. Sysneiros Filho, Y. Gómez y O. Rodríguez
Mendoza, «Hacia el desarrollo de un marco de trabajo para mejorar
la trazabilidad de requisitos,» Revista Ingenieria e Investigación, vol.
32, nº 1, pp. 48-52, 2012.
R. H. Thayer y M. Dorfman, Software Requirements Engineering,
Segunda edición ed., 1997.
Alonso Toro Lazo (1986- ) nació en Viterbo –
Caldas, Colombia, el 17 de junio de 1986. Se graduó
como Ingeniero de Sistemas y Telecomunicaciones
en la Universidad Católica de Pereira y actualmente
es candidato a Magister en Gestión y Desarrollo de
Proyectos de Software de la Universidad Autónoma
de Manizales.
Ejerce como Coordinador del programa Ingeniería
de Sistemas y Telecomunicaciones de la Universidad
Católica de Pereira y es docente en las áreas de
Ingeniería de Software, Gestión de proyectos
de software, Calidad de Software y Metodología de la investigación
(Anteproyecto). Entre sus campos de interés se encuentra la Ingeniería del
software, el Desarrollo de Requisitos de Software, y la aplicación de buenas
prácticas de ingeniería que permitan el Aseguramiento de la calidad del
software.
Juan Guillermo Galvez Botero (1986- )
nació en Medellín – Antioquia, Colombia, el 8
de enero de 1986. Se graduó como Tecnólogo de
Sistemas del Centro de Investigación, Decencia
y Consultoría Administrativa CIDCA y continúo
su ciclo de profesionalización en la Universidad
Católica de Pereira optando el título de Ingeniero
de Sistemas y Telecomunicaciones y actualmente
es candidato a Magister en Gestión y Desarrollo
de Proyectos de Software de la Universidad
Autónoma de Manizales.
Ejerce como profesional en la Unidad de
Gestión de Tecnologías Informáticas y Sistemas
de Información (UGTISI) de la Universidad Tecnológica de Pereira como
Ingeniero Desarrollador de Software. Entre sus campos de interés se
encuentra el Desarrollo de Requisitos de Software, la Calidad del Software y
la aplicación de técnicas y procedimientos que demanda la implementación
de un proyecto software de calidad con requisitos específicos.
Universidad Católica de Pereira
114
Entre Ciencia e Ingeniería, ISSN 1909-8367
Año 10 No. 19 - Primer Semestre de 2016, página 114 - 125
Software educativo para el buen uso de las TIC1
Educational software for the proper use of ICT
Software educativo para um bom uso das TIC
E. Murcia, J.L. Arias y S. M. Osorio
Recibido Noviembre 20 de 2015 – Aceptado Febrero 19 de 2016
Resumen— Este articulo trata sobre la elaboración
de un Software Educativo para el buen uso de las TIC, para
lo cual se ha realizado una revisión sobre cuál debe ser la
metodología en desarrollo de software apropiada, escogiendo
el Proceso de Desarrollo Unificado (RUP), porque tiene ciertas
características que serán expuestas posteriormente, también
se revisó cuál debe ser el lenguaje de programación, optando
por PHP, finalmente se parte de las respuestas dadas a una
encuesta realizada a docentes y estudiantes de Básica Primaria,
con el fin de poder enfocar bien el desarrollo del software y el
producto final, ya que el público objetivo son los niños y niñas
que están en este nivel de formación, con el fin de poder tener
una herramienta tecnológica mediante la cual ellos aprenderán
a usar responsablemente las tecnologías de la Información y la
Comunicación.
Palabras clave— Software Educativo, Proceso de desarrollo
unificado, TIC, Buen uso de las TIC, Educación Básica
Primaria.
Abstract- This article is related to the development of an
Educational Software for the proper use of ICT, a review of
what should be the appropriate methodology in developing
1
Producto derivado del proyecto de investigación “Software educativo
para el buen uso de las TIC”. Presentado por la estudiante para graduarse
como Ingeniera de Sistemas y Telecomunicaciones, este proyecto fue
elaborado en la modalidad de residencia de línea de investigación, en la
Línea de Investigación Enseñanza de las Ciencias Básicas perteneciente
al grupo de investigación GEMA de la Facultad de Ciencias Básicas e
Ingeniería de la Universidad Católica de Pereira.
E. Murcia, magíster en la enseñanza de las matemáticas, es docencia
en el Departamento de Ciencias Básicas, de la Universidad Católica de
Pereira, Pereira (Colombia); email: [email protected]
J.L. Arias, magíster en la enseñanza de las matemáticas, es docente
Asociado I de la Facultad de Ciencias Básicas e Ingeniería, de la Universidad
Católica de Pereira, Pereira (Colombia), también es docente Catedrático
Asistente de la Facultad de Ingeniería Industrial de la Universidad
Tecnológica de Pereira, Pereira (Colombia); email: [email protected],
[email protected]
M.S. Osorio, Ingeniera de Sistemas y Telecomunicaciones de la
Facultad de Ciencias Básicas e Ingeniería, de la Universidad Católica de
Pereira, Pereira (Colombia); email: [email protected]
Entre Ciencia e Ingeniería
software has been conducted for that purpose, and the Unified
Development Process (RUP) has been selected, because it has
certain characteristics that will be exhibited subsequently, the
programming language has also been revised, and the PHP was
chosen. Finally, the responses to a survey applied to teachers
and students of Basic Primary were taken into account, in
order to focus the software development and the final product,
since the target population is children who are at this level of
education, this way, a technological tool through which they
will learn to use responsibly Technologies of Information
communication, will be achieved.
Key words--- Educational Software, unified development
process, ICT, Good use of ICT, Basic Primary Education.
Resumo— Este artigo trata sobre a elaboração de um
Software Educativo para um bom uso das TIC, para o qual
se realizou uma revisão sobre qual deve ser a metodologia em
desenvolvimento de software apropriada, escolhendo o Processo
de Desenvolvimento Unificado (RUP), porque possui certas
características que serão mostradas posteriormente. Também
foi revisado qual deve ser a linguagem de programação,
optando por PHP, finalmente partindo das respostas dadas a
uma pesquisa realizada a professores e estudantes de Primaria,
com o objetivo de poder enfocar bem o desenvolvimento do
software e o produto final, já que o público objetivo são os
meninos e as meninas que estão neste nível de formação, com
a finalidade de ter uma tecnológica que será o meio por onde
eles aprenderão a usar responsavelmente as tecnologias da
Informação e da Comunicação.
Palavras chave— Software Educativo, Processo de
desenvolvimento unificado, TIC, Bom uso das TIC, Educação
Básica Primaria.
I. Introducción
La tecnología siempre ha tenido como objetivo facilitar
y mejorar la calidad de vida de las personas, beneficiando
a todos de una u otra forma gracias a sus últimos avances,
todo ello gracias a los adelantos de las computadores y del
internet, que permiten, además de estar comunicados todo el
115
tiempo y en contacto con el mundo, realizar un sin número
de actividades empresariales, ocupacionales, educativas,
recreativas, etc.
programa de prevención de conductas de riesgo en Internet:
un estudio con preadolescentes navarros de 6° de Educación
Primaria” leída en la Universidad Pública de Navarra”.
En este mismo sentido los niños, como parte activa de
esta nueva sociedad del conocimiento y la información, se
convierten en los más importantes usuarios potenciales
de toda esta tecnología ya que, sin importar su situación
económica, tienen un acceso casi ilimitado a toda clase de
información y pueden además interactuar con personas de
cualquier parte del mundo, ya sea desde la casa, el colegio
o en los muchos lugares que prestan el servicio de internet
y que desafortunadamente en ciertas ocasiones no cuenta
con herramientas y normas adecuadas que limiten su uso por
parte de niños y menores de edad.
Esta misma autora dice también, a raíz del mismo estudio,
que “los niños y niñas de 10 a 12 años asumen muchos riesgos
en su uso de internet y el 5% de ellos queda físicamente con
desconocidos a los que han contactado en la red” citada por
[4]. Otro estudio, en este caso de la Universidad de Málaga
y la Pontificia Universidad Javeriana de Colombia, arroja
como resultado que “los adolescentes de entre 12 y 15 años
no conocen tan bien como dicen los peligros de internet”,
citado en [4].
De este modo se hace necesario tener en cuenta que si bien
la tecnología puede ser una herramienta muy útil e interesante
en el proceso de formación de los niños, debe utilizarse
siempre dentro de un ambiente enfocado a prestar ayuda
para aprender y potenciar sus habilidades, de tal manera que,
ni absorba todo su tiempo y mucho menos que reemplace
otras actividades, indispensables para su formación como
personas y como miembros de una sociedad.
De otro lado y a diferencia de los adultos, los niños aprenden
fácilmente a usar las nuevas herramientas tecnológicas,
por este motivo, se les denomina, como Nativos Digitales,
según Marc Prensky, definición que plantea que las nuevas
generaciones incorporan en su ADN el dominio de las
nuevas tecnologías y por eso, en el momento de ejecutar
acciones formativas para ellos, es de gran importancia sus
características ya que se convierten en la clave de la eficacia
en los resultados que se pretenden lograr [1] y [2].
Por lo tanto, el problema al cual se enfrentan los padres,
maestros y demás actores de la sociedad, no es orientar a los
niños en el uso de las TIC, pues como ya se dijo, para ellos
es instintiva esta habilidad, por lo que es muy poco lo que
se les puede enseñar al respecto. Tampoco se trata de limitar
o prohibir el uso de estas tecnologías, pues el acceso a ellas
es ilimitado (en la casa, en la escuela, en el entorno social)
y además no se puede desconocer su importancia como
herramienta educativa y lúdica. El problema real, al que
pretende tratar este artículo, es la falta de responsabilidad en
el uso de estas herramientas, sobre todo por parte de los niños
y niñas más pequeños, puesto que ellos aún no dimensionan
el alcance de ciertas actividades que realizan en la red, ni los
riesgos a los que se exponen.
Según estudios realizados acerca del uso que los
preadolescentes hacen de Internet y de las redes sociales “se
ha encontrado algunos comportamientos que suponen una
clara señal de alarma. A pesar de tratarse de niños de 11 años,
aproximadamente uno de cada diez se relaciona con amigos
virtuales que no conoce y en el 5,6% de los casos han llegado
a quedar físicamente con desconocidos” dice [3] citada por
[4] en su tesis doctoral “Evaluación de la eficacia de un
Por tal razón, se propone implementar un software
educativo que oriente a los niños y niñas de Educación Básica
Primaria, sobre la correcta y responsable utilización de las
nuevas Tecnologías de la Información y la Comunicación,
conocidas y mencionadas de ahora en adelante como TIC.
Dicho software será, además de educativo, multinivel, con
un entorno gráfico que permita al estudiante crear cosas
tan sencillas como un correo electrónico, y que, a medida
que se van superando las respectivas etapas, va agregando
información, incrementando su complejidad y llevando
al estudiante a la creación de blogs, páginas web y otros
elementos en los cuales puedan debatir su conocimiento con
otros estudiantes.
En este sentido el desarrollo de este software se
fundamentará en el concepto de OVA (Objeto Virtual de
Aprendizaje), definido como “un conjunto de recursos
digitales, autocontenibles y reutilizables, con un propósito
educativo y constituido por al menos tres componentes
internos: contenidos, actividades de aprendizaje y elementos
de contextualización. El objeto de aprendizaje debe tener una
estructura de información externa (metadatos) que facilite
su almacenamiento, identificación y recuperación” así como
aparece definido en [5].
Es de esta manera como los contenidos y actividades
de cada una de los OVA que se propone crear en este
software, tendrán como objetivo principal orientar a la
población estudiantil de básica primaria, en el uso correcto
y responsable de las nuevas tecnologías, de forma que no
solo se concienticen de los riesgos a los que se exponen y
puedan identificarlos fácilmente, sino que también adopten
actitudes responsables y críticas frente a los contenidos de
la red y sobretodo que aprendan cómo afrontar situaciones
incómodas, vergonzosas o que pongan en peligro su
integridad física y estabilidad emocional.
II. Antecedentes
Hoy en día, la tecnología está presente en todas las
actividades de la vida cotidiana, tanto en el ámbito laboral
y educativo, modificando los medios de comunicación y de
acceso a la información, incorporando nuevos métodos de
trabajo y de estudio, creando nuevas fuentes de diversión
Universidad Católica de Pereira
116
y esparcimiento, en una palabra, cambiando totalmente la
forma de vida de las personas. Por estas razones, las nuevas
tecnologías estarían relacionadas, de una u otra forma, con
todas las áreas del conocimiento, por lo tanto se hace evidente
su relación con los procesos de enseñanza-aprendizaje.
En tal sentido la educación como base fundamental para
el desarrollo de cualquier sociedad, principalmente en
la llamada sociedad del conocimiento, que se caracteriza
por privilegiar según [6], [7] y [8] citados por [9],el capital
intelectual, el conocimiento como capital fundamental, el
conocimiento, las habilidades y las destrezas cognitivas
y sociales como materias primas, el trabajo colaborativo
y cooperativo, la deslocalización de la información, el
uso intensivo del conocimiento, entre otros. Teniendo en
cuenta lo anterior, las TIC se convierten en herramienta
fundamental para el desarrollo de las personas y por ende
de las sociedades, siempre que potencian habilidades y
destrezas para acceder a la información, además de permitir
una comunicación constante e ilimitada [9].
Así mismo es importante señalar que Colombia, se
encuentra en franca desventaja frente a otros países, tanto en
infraestructura tecnológica, como en actitudes y habilidades
para el uso de las nuevas tecnologías. A este respecto, es
importante destacar que el Estado está haciendo todo lo
posible por corregir esta situación a través de iniciativas
que integran las TIC a la educación de niños y jóvenes,
e incluso, por medio de programas de alfabetización
digital para aquellas personas que no tienen los recursos
económicos ni la formación necesaria para acceder a estas
tecnologías. En este sentido se pueden destacar programas
como Computadores para educar, por medio del cual se está
tratando de dotar a las instituciones educativas públicas de
infraestructura y equipos; también estrategias como Vive
Digital para conectar dichas instituciones a la red, Virtual
Educa, A que te cojo ratón, TemaTICas y muchos otros,
enfocados a la capacitación de docentes y directivos docentes,
en la creación de recursos y herramientas didácticas y en la
formación de la comunidad en general. Todo lo anterior, con
el fin de “contribuir a formar una sociedad más democrática,
más incluyente y mejor informada, en la que la educación de
calidad sea el principal factor de movilidad social y genere
oportunidades de progreso para construir un país más justo,
más moderno y más seguro”, según palabras de la Ministra
de Educación, citadas en [10].
Según [11], [12] y [13], “las encargadas de preparar a
la población naciente, que vienen a representar el futuro de
una nación, son las instituciones educativas, cuya finalidad
es fomentar la tecnología en pro de su desarrollo como entes
educativos. En este contexto, a medida que las TIC avanzan
y se masifican, las instituciones educativas deben cambiar
para adaptarse a ellas y no quedar en desventaja, incluyendo
mejoras tecnológicas en su infraestructura, herramientas
necesarias para la aplicación de dichas tecnologías, conexión
a la red y sobre todo, utilizando software educativos en el
proceso de enseñanza” citado por [14].
Entre Ciencia e Ingeniería
De la misma manera [15] señala que: “…un software
educativo es una aplicación informática, que soportada sobre
una bien definida estrategia pedagógica, apoya directamente
el proceso de enseñanza-aprendizaje constituyendo un
efectivo instrumento para el desarrollo educacional del
hombre del nuevo siglo”.
En Colombia, en estos últimos años, el software educativo
se ha convertido en una de las herramientas didácticas
más importantes para facilitar los procesos de enseñanzaaprendizaje en las instituciones educativas, inclusive en
escuelas y colegios públicos donde la infraestructura
tecnológica aun es limitada. Por tal motivo, en los últimos
años han surgido numerosas empresas desarrolladoras de
software educativo en diferentes ciudades, además de las
iniciativas del Estado al respecto. En este sentido, cabe
resaltar proyectos como Conexiones, que desde 1994
se dedica a la investigación de informática educativa y
al desarrollo de ideas de software; el Instituto SER de
investigación dedicado al análisis, diseño y desarrollo de
software educativo; también se pueden destacar sitios como
www.colombiaaprende.edu.co , www.edumediaeditores.
com, www.eduteka.org/proyectos, que ofrecen soluciones
tecnológicas y didácticas para que las instituciones educativas
optimicen sus procesos de enseñanza-aprendizaje.
“Diversos estudios han mostrado que, en comparación
con la clase tradicional, los programas multimediales pueden
ayudar al estudiante a aprender más información de manera
más rápida. Algunos estiman que se puede ahorrar hasta un
80 por ciento de tiempo en el aprendizaje” [16].
“Ciertas investigaciones han mostrado que la presencia
de varios medios ayuda a incrementar el aprendizaje. Por
ejemplo, se ha encontrado que los niños aprenden mejor el
contenido de un texto cuando tiene ilustraciones. Asimismo
se ha establecido que cuando los estudiantes pueden escuchar
una descripción verbal simultáneamente con una animación,
aprenden más que cuando sólo oyen la descripción o ven la
animación [16].
Continuamente se observa, principalmente en los medios
de comunicación, como muchos niños y niñas de diferentes
edades, se involucran en situaciones que atentan contra sus
derechos fundamentales, casi siempre por desconocimiento o
por falta de control por parte de sus padres (violaciones, trata
de personas, tráfico de niños, bulling y ciber-acoso, sexting,
grooming etc.). Todo esto ha ocasionado que padres de
familia y maestros desconfíen de las nuevas tecnologías, lo
cual a su vez fomenta la tendencia a resaltar la parte negativa
de la evolución y crecimiento tecnológico, privándose de esta
manera de los beneficios del futuro, del buen conocimiento
que pueden adquirir y en ocasiones incluso, de aprovechar
las ayudas gubernamentales a las cuales tienen derecho los
niños solo por ser objetos de especial protección del Estado
, según se menciona en el Art. 45 de la Constitución Política
de Colombia.
La problemática anterior nace principalmente por falta de
117
cultura y educación, pues aunque la masificación de las TIC
es ya una realidad, no hay todavía un verdadero y profundo
conocimiento del tema, principalmente por parte de los
adultos y padres de familia, para quienes la tecnología es un
misterio y por lo mismo les genera desconfianza.
Por lo tanto en Colombia, y en general en el mundo
entero, la incorporación de las TIC al contexto educativo se
ha convertido en una obligación, no solo por su popularidad
y su rápida difusión sino principalmente por las enormes
posibilidades que ofrece en este campo, como fuente casi
inagotable de recursos y estrategias didácticas, además, por
las modalidades de comunicación que permiten mejorar y
optimizar el proceso educativo, haciendo del aprendizaje
algo práctico y divertido.
En este sentido no se puede negar y menos aún desmerecer,
el enorme potencial que tienen las TIC como herramienta
educativa; sin embargo, es fundamental adoptar una actitud
reflexiva y critica ante el tema, pues citando a [17] “todos
sabemos que su uso (prensa, televisión, ordenador) no los
convierte en medios de enseñanza, pues para que cumplan
dicha función requieren de una planificación didáctica
conveniente y pormenorizada, de tal forma que exista una
estrecha coordinación entre el medio, sus características y
los contenidos a transmitir”.
En respuesta a los compromisos establecidos por todas las
organizaciones mundiales en pro de alcanzar el desarrollo
en el Siglo XXI (siendo por todas ellas considerada la
educación como una herramienta poderosa para generar
equidad, reducir la pobreza, generar empleo y mayor
seguridad), Colombia también ha evidenciado su interés por
fortalecer las TIC en las instituciones educativas, prueba de
ello es la Ley 1341 del 30 de julio de 2009 que define las TIC
como “el conjunto de Tecnologías de la Información y las
Comunicaciones. En este sentido, las TIC agrupan una serie
de herramientas dentro de las cuales se encuentran: equipos,
programas informáticos, aplicaciones, redes y medios. Estos
permiten la compilación, procesamiento, almacenamiento,
transmisión de información como voz, datos, texto, video e
imágenes” [18].
A partir de esta definición, dicha Ley se constituye como
marco normativo para el desarrollo del sector de las TIC,
además de que promueve su acceso y uso a través de la
masificación, garantiza la libre competencia, el uso eficiente
de la infraestructura y el espectro, y en especial, fortalece la
protección de los derechos de los usuarios [19].
De igual forma, el Artículo 39 de la misma norma, indica
que “El Ministerio de las TIC coordinara la articulación del
Plan de TIC con el Plan de Educación y los demás planes
sectoriales, para facilitar la concatenación de las acciones,
eficiencia en la utilización de los recursos y avanzar hacia
los mismos objetivos. Específicamente estos recursos se
destinaran para:
-
Fomentar el emprendimiento en TIC desde los
establecimientos educativos, con alto contenido en
innovación.
-
Poner en marcha un Sistema Nacional de Alfabetización
Digital
-
Capacitar en TIC a los docentes de todos los niveles.
-
Incluir la cátedra de TIC en todo el sistema educativo,
desde la infancia.
-
Ejercer mayor control en los cafés internet para
garantizar la seguridad de los niños” [20].
Estas articulaciones se ven reflejadas entre otros, en el
Plan Decenal de Educación 2006-2016, en el Plan Nacional
de Apropiación de Nuevas Tecnologías en términos de
infraestructura, así como en el Plan Estratégico del Sectorial
2012-2014, todos los cuales coinciden en plantear entre sus
principales objetivos el establecimiento de responsabilidades
para “garantizar el acceso, uso y apropiación critica de las
TIC, como herramientas para el aprendizaje, la creatividad,
el avance científico, tecnológico y cultural” [21].
En tal sentido como parte de esta ruta de apropiación
tecnológica a nivel educativo en nuestro país, el Estado ha
venido llevando a cabo toda una serie de proyectos, algunos
de los cuales se mencionan a continuación:
- Colombia Aprende: se trata de un portal web que otorga
herramientas virtuales de utilidad en la labor educativa de
docentes, estudiantes y todas aquellas personas adscritas
a las instituciones de educación superior. Dentro de sus
productos cuenta con una completa colección de libros
digitales, videos, audios y juegos interactivos.
- Computadores Para Educar: es un programa de
reutilización y dotación de nuevos equipos de cómputo
cuya finalidad es brindar acceso a las TIC, principalmente
a las instituciones educativas públicas, por medio del
reacondicionamiento de equipos de cómputo y la gestión
de residuos electrónicos. Adicionalmente se capacita
a los docentes para su máximo aprovechamiento en
los procesos pedagógicos mediante la aplicación de
estrategias de acompañamiento educativo y apropiación
de las TIC.
- Compartel: es un programa de telecomunicaciones
cuyo objetivo es permitir que las zonas apartadas de los
estratos bajos del país se beneficien con las TIC, como
son la telefonía rural y el internet. En la actualidad 16
operadores están prestando estos servicios, financiados
con los recursos del Fondo de Tecnologías de la
Información y la Comunicación y FONADE.
- A Que Te Cojo Ratón: es un proyecto que promueve
la alfabetización digital para lograr que los docentes
colombianos utilicen las TIC en su vida diaria y las
vinculen en sus prácticas pedagógicas dentro del
Universidad Católica de Pereira
118
aula de clase. Es una red de formación que brinda
acompañamiento en el uso de las TIC.
- Entre Pares: es un programa en convenio con Microsoft
para apoyar el uso y aplicación de las TIC en los procesos
educativos. Pretende que los docentes incorporen
herramientas TIC a los contenidos curriculares por
medio del trabajo colaborativo y las habilidades de
comunicación a partir del principio de asesoría docente.
- Proyectos Colaborativos: es un proyecto virtual del
portal Colombia Aprende en el cual se propone integrar el
aprendizaje colaborativo y el trabajo por proyectos para
motivar a estudiantes y profesores hacia el uso inteligente
y creativo de las TIC mediante redes de aprendizaje y la
vinculación de actividades asociativas entre equipos de
docentes con intereses comunes.
- TemaTICcas: es un programa del Ministerio de
Educación para la apropiación profesional TIC para
directivos docentes. Tomado de [22].
Con el apoyo de estas y otras iniciativas de los planes
Vive Digital y Virtual Educa se ha logrado, en Colombia,
una significativa ampliación de los servicios de Voz e
Internet y la dotación de equipos de cómputo a Instituciones
Educativas Publicas y el fortalecimiento de los accesos a
internet y procesos de apropiación de las TIC en el ámbito
educativo. Específicamente, el impacto de dichos programas
en la educación básica se reflejó en un incremento de
computadores por alumno (20 niños por computador), en
la conectividad (el porcentaje de estudiantes con conexión
paso de 19% en el 2005 a 87% en el 2010), en el ancho de
banda y el horario de servicio [18].
Por otro lado en Risaralda y específicamente en la ciudad
de Pereira, según la Secretaria de Educación, el promedio
de estudiantes por computador es de 13, uno de los mejores
promedios del país; además las instituciones educativas
cuentan con un total de 6.394 equipos con conectividad en
las aulas, gracias a las gestiones adelantadas a través del
programa “Pereira Digital” [22]. “Así mismo, se pasó de
una cobertura del 78% en materia de conectividad en los
planteles educativos a un 98%, con acceso a banda ancha.
Adicionalmente fueron gestionadas y puestas en servicio
19 aulas móviles, dotadas con equipos portátiles, tableros
digitales, cámaras de video, video Beam y conexión a internet,
de las cuales 14 operan en el área urbana, beneficiando a una
población de 23.000 estudiantes. De igual manera, varias
instituciones educativas han sido beneficiadas mediante
la entrega de un software especial para población con
discapacidades” [22].
También en diferentes ciudades ya existen empresas
dedicadas a la construcción de software educativo, a
continuación se muestran las aplicaciones que se están
utilizando.
- En Barranquilla se presentó un nuevo software en la
Entre Ciencia e Ingeniería
enseñanza del inglés, producto de la alianza del Distrito
y sector privado, en la sede de la Institución Educativa
Distrital.
- El nuevo software de bilingüismo, Reading Company,
que utiliza la lectura virtual para mejorar las
competencias de pronunciación y escucha del inglés, fue
donado por la empresa IBM y la Fundación Dividendo
por Colombia, y será operado por la Universidad del
Norte. Su implementación en las escuelas seleccionadas
se hace con una inversión de 384 millones de pesos.
Los 15 colegios beneficiados en la primera etapa de
este programa reúnen las condiciones tecnológicas
necesarias, tienen docentes de inglés en nivel intermedio
y compromiso de la institución educativa.
- De este software solo se tiene esta información publicada
enhttp://www.sedbarranquilla.gov.co/ puesto que al ser
del sector público, el acceso es a través de la intranet de
cada institución. Lo que se ha investigado en diferentes
sitios de internet, es que el software es muy didáctico
e ilustrativo y esto lleva a que los estudiantes quieran
generar su propio contenido e incentive las ganas de
investigar e ir más allá de lo que les enseñan en un aula
de clases.
- También podemos observar este sitio llamado, http://
www.educolombia.org/ el cual está enfocado a
ofrecer servicios de software educativo pero a nivel
de instituciones educativas para mejorar los procesos
cotidianos y manuales (Imagen en la página siguiente).
Este sitio web ofrece aplicaciones muy completas, como
se puede observar en la imagen contiene una barra de con
diferentes tareas para la gestión de información, notas,
archivos y tareas esta aplicación requiere de un usuario
y contraseña pero como tiene fines comerciales para los
institutos educativos tiene un precio alrededor de 1500
pesos por alumno anual.
- Existe otro portal web llamado http://www.sinco.pe/ este
portal ofrece integración de la información, ayudando
con módulos sencillos a guardar notas, directorios e
información general del plantel educativo, es totalmente
freeware2 y solo genera los cobros de mantenimiento,
pero no contiene aplicaciones que sirvan de ayuda a los
estudiantes como el anterior solo es un aplicativo de
apoyo a los colegios con sus operaciones cotidianas.
III. Definición del problema
La tecnología se mueve a un ritmo muy acelerado, mientras
que hace algunos años los avances tecnológicos parecían
ser exclusivos del gobierno y de los más privilegiados
económicamente, se ve como en la actualidad la masificación
de las TIC ha permitido que casi todos los sectores sociales
puedan acceder a ellas; esto por supuesto, incluye a los
niños, quienes hoy en día son los que más acceden a la red,
2
Freeware: define un tipo de software que se distribuye sin costo,
disponible para su uso y por tiempo ilimitado
119
la cual les permite interactuar, crear y alimentar su innata
curiosidad, su necesidad de conocimiento y de información.
Teniendo en cuenta que son numerosas las ventajas de
las TIC en la educación y formación de los niños, es difícil
y quizá contraproducente, pretender apartarlos de ellas; sin
embargo, no se puede dejar de lado la realidad y esto es, el
uso irresponsable e ilimitado que estos niños y niñas están
haciendo de internet, lo cual ha generado nuevas formas de
violencia y está generando practicas cada vez más peligrosas
para su integridad física y emocional, especialmente en el
caso de los más pequeños, pues ellos aún no saben distinguir
realmente lo bueno de lo malo, aun no son conscientes del
peligro, sino que su naturaleza impulsiva y curiosa los lleva
a involucrarse en situaciones que fácilmente salen de su
control.
Si se tiene en cuenta que los niños pueden acceder a la red
casi desde cualquier lugar de su entorno, generalmente sin la
supervisión de un adulto, pues aunque naveguen dentro de
su casa, la mayor parte del tiempo, no tienen ningún control
parental, dice [3] citada por [4]; se entiende que cada día
sea mayor el número de niños víctimas del ciberbullying, el
grooming o el sexting.
Según los estudios realizados por la Universidad de
Málaga [4], los niños no tienen la responsabilidad suficiente
para negarse a recibir invitaciones de extraños en la red,
e incluso, llegan a aceptar verse personalmente con esas
personas, sin el consentimiento de sus padres. Así mismo,
también hay que destacar que muchos niños confiesan
haber usado la red para insultar a otros compañeros, para
avergonzarlos e incluso amenazarlos. En las niñas, es más
común el haber consentido, en algún momento, en enviar
datos personales e incluso fotos a personas desconocidas.
Estos y muchos más son los riesgos que corren los niños al
navegar por internet sin supervisión de un adulto, si no se
tiene precaución de realizar una navegación segura y no han
recibido una correcta información acerca de los peligros y
trampas que les acechan.
En tal sentido se diseña y realiza un software educativo
que permita a los niños y niñas hacer un uso adecuado de las
TIC, aprovechando todas las ventajas que tiene ellos al ser
unos ciudadanos digitales innatos y con un gran potencial
para aprender e interactuar con los aparatos electrónicos.
IV. Propuesta de solución
En la propuesta de software educativo como herramienta
para el buen uso de las TIC, se pretende generar una
herramienta de apoyo para docentes y directivos docentes
de enseñanza básica, que a través de diversas actividades y
contenidos, eduquen a los niños en el buen uso de internet,
principalmente de las redes sociales.
Por lo tanto los contenidos y el diseño del software se
establecerán según los requisitos establecidos para la
elaboración de software educativo, teniendo en cuenta
además que su propósito principal es atraer la atención del
estudiante, despertar su interés para que decida ingresar a los
OVA y realizar todas las actividades propuestas.
Para ello se creara una interfaz gráfica llamativa y se
procurará que los contenidos tengan un enfoque fresco y
creativo acerca del tema; de esa forma los niños se divertirán
usando herramientas novedosas y a la vez, aprenderán a
identificar los riesgos de navegar en la red, tomando ciertas
precauciones.
Asumiendo entonces que es improbable impedir el acceso
de los niños a la red y físicamente imposible estar al tanto
todo el tiempo de lo que hacen y de los sitios que visitan,
se trata de crear un medio a través del cual los niños y
niñas de básica primaria conozcan los riesgos de navegar
irresponsablemente por la red y con base a este conocimiento,
adoptar practicas más seguras, buscando reducir los riesgos
a los que se exponen.
En tal sentido se elaboró un diagnóstico acerca del uso
de las TIC por parte los estudiantes de básicas primaria,
utilizando para tal fin la aplicación de una encuesta, donde se
involucró también a los docentes del mismo nivel educativo
y se aplicaron una seria de requisitos para el desarrollo del
software que van desde el ciclo de vida, la metodología,
la recolección de requisitos fundamentales, el diseño
estructural, hasta el plan de prueba y la implementación.
Para el diagnóstico sobre el uso de las TIC en estudiantes
de básicas primaria se usó un muestreo no probabilístico
por conveniencia donde participarán 120 estudiantes y 20
docentes de diferentes instituciones de la ciudad de Pereira
(Risaralda), se emplearon dos encuestas la primera para
docentes cuyo objetivo era conocer la percepción de los
Docentes respecto a la tecnología y el uso de las mismas,
por parte de sus estudiantes y la segunda realizada a los
estudiantes con la cual se busca conocer la percepción de los
niños respecto a la tecnología y el uso que ellos hacen de la
misma, con la información obtenida se realiza la propuesta
de contenidos para software educativo en el que se refleje el
buen uso de las TIC.
Las encuestas que se realizaron tanto a los docentes
como a los estudiantes se subdividieron en categorías con
el fin de poder obtener una información más completa para
la propuesta del software educativo, las categorías son las
siguientes:
- Naturaleza y evolución de la tecnología: se refiere
a las características y objetivos de la tecnología, a
sus conceptos fundamentales (sistema, componente,
estructura, función, recurso, optimización, proceso, etc.),
a sus relaciones con otras disciplinas y al reconocimiento
de su evolución a través de la historia y la cultura.
- Apropiación y uso de la tecnología: se trata de la
utilización adecuada, pertinente y crítica de la tecnología
Universidad Católica de Pereira
120
(artefactos, productos, procesos y sistemas) con el fin
de optimizar, aumentar la productividad, facilitar la
realización de diferentes tareas y potenciar los procesos
de aprendizaje, entre otros.
- Solución de problemas con tecnología: se refiere
al manejo de estrategias en y para la identificación,
formulación y solución de problemas con tecnología, así
como para la jerarquización y comunicación de ideas y
comprensión de estrategias que van desde la detección
de fallas y necesidades, hasta llegar al diseño y a su
evaluación.
- Tecnología y sociedad:
trata tres aspectos tales
como las actitudes hacia la tecnología, en términos
de sensibilización social y ambiental, curiosidad,
cooperación, trabajo en equipo, apertura intelectual,
búsqueda, manejo de información y deseo de informarse;
por otro lado tiene en cuenta la valoración social que
el individuo hace de la tecnología para reconocer el
potencial de los recursos, la evaluación de los procesos
y el análisis de sus impactos (sociales, ambientales y
culturales) así como sus causas y consecuencias; así
mismo se encarga de revisar la participación social que
involucra temas como la ética y responsabilidad social,
la comunicación, la interacción social, las propuestas de
soluciones y la participación, entre otras.
La información obtenida de las encuestas se convierten
en información impórtate para desarrollar el software
educativo, buscando que este se desarrolle a la medida
de las necesidades de los usuarios, las conclusiones más
importantes se presentaran más adelante.
Por otro lado con respecto a la metodología en desarrollo
de software usada para la creación del software se realizó una
revisión de ellas, entre otras se tuvo en cuenta las siguientes:
PSP, TSP, RUP, SCRUM, POO, RAD, DSDM UP, XP.
De acuerdo a las características finalmente se decidió
utilizar la metodología RUP, dado que es un proceso para el
desarrollo de un proyecto de software que define claramente
quien, como, cuando y qué debe hacerse en el proyecto,
además tiene tres características esenciales, tales como: está
dirigido por los casos de uso: que orienta el proyecto a la
importancia para el usuario y lo que este quiere, está centrado
en la arquitectura: que relaciona la toma de decisiones que
indican cómo tiene que ser construido el sistema, y es
iterativo e incremental: donde divide el proyecto en mini
proyectos donde los casos de uso y la arquitectura cumplen
sus objetivos de manera más depurada.
Por otro lado RUP tiene seis principios claves:
- Adaptación del proceso: El proceso debe adaptarse
a cada una de las características de la organización
(tamaño, diseño específico, regulaciones, alcance del
proyecto).
- Balancear prioridades: Balancear los recursos para
llevar a cabo el proyecto de la manera más adecuada y de
esta manera satisfacer las necesidades de los inversores.
Entre Ciencia e Ingeniería
- Colaboración ente equipos: Comunicación entre los
equipos de trabajo que llevan a cabo el proyecto.
- Demostrar valor iterativamente: El proyecto se entrega
de forma parcial e internamente para corregir posibles
errores, estabilidad y verificar la calidad del producto
- Elevar el nivel de abstracción: Motivar el uso de
concepto reutilizables de software (lenguajes 4gl o
frameworks).
- Enfocarse en la calidad: Realizar control de calidad en
cada aspecto de la elaboración del proyecto.
También se partió del hecho que RUP divide el proceso
en cuatro fases, dentro de las cuales se realizan varias
iteraciones dependiendo del tipo proyecto, sus fases son:
- Inicio: En esta fase se identifican los casos de usos,
riesgos y alcance del proyecto.
- Elaboración: En esta fase se realiza el plan de proyecto,
se eliminan los riesgos y se completan los casos de uso.
- Construcción: En esta fase se concentra la codificación
total del producto y el manual del usuario.
- Transición: En esta fase se entrega el producto y se
entrena a los usuarios.
Teniendo en cuenta las razones anteriores se decide utilizar
RUP como metodología de desarrollo ya que para este caso
se necesita formalidad, se parten de requisitos funcionales, y
se proyectará como desarrollo a largo plazo.
Por otro lado se revisaron diferentes herramientas
de programación para web entre ellas ASP.NET, PHP,
Java, Python, Ruby, de acuerdo al análisis de diferentes
herramientas, se elige PHP ya que tiene el primer lugar de
rendimiento de acuerdo a la información obtenida de la
Matriz comparativa de lenguajes de programación para el
web obtenida de [23].
Tal como se muestra en la fig. 1. El usuario administrador,
realiza un registro del usuario mediante una interfaz, que se
encuentra construida en MySQL PHP. Una vez realizado
este registro, el usuario puede hacer su respectivo login, en
caso de fallo por olvido, deberá remitirse al administrador
del sistema para poder recuperar su contraseña y acceder
nuevamente. Esto debido a que son niños los que van a
utilizar la plataforma y la opción recuperar contraseña para
este caso no sería útil.
Luego en el sistema nos podemos
enrolar ya sea como aprendiz o como instructor. El instructor
podrá ver los eventos que los niños han realizado dentro
de la plataforma, como hacer clic en un menú, o iniciar la
reproducción de un video, y basado en estas evidencias
realizar la calificación de forma manual a los estudiantes
del curso. Los estudiantes a su vez podrán ver sus notas de
acuerdo a las notas emitidas por el instructor que imparte el
curso.
121
Fig. 1 Diagrama de flujograma
Fig. 3. Diagrama dos de casos de uso
V. Resultados
Se elaboró un software educativo para que los niños de los
grados primero a quinto de básica primaria con el fin de que
ellos aprendan a dar buen uso a las nuevas Tecnologías de la
Información y la Comunicación. A continuación se muestran
gráficamente los aspectos principales de dicho software.
Casos de uso
La fig. 2 y 3 muestran en forma de diagrama los casos
de usos del software educativo, los cuales se explican
seguidamente en las tablas I al IV
Fig. 2 Diagrama uno de casos de uso.
TABLA I
Caso de uso: realizar evaluación
Realizar Evaluación.
Caso de uso:
Actores:
Estudiante
Descripción: El Caso de Uso es iniciado cuando los usuarios del sistema desean realizar una evaluación a través
de los Ejercicios Evaluativos.
Precondiciones:
Que el usuario este autentificado como Usuario y la
Aplicación este iniciada.
Poscondiciones:
Que se realice la evaluación.
Curso normal de los eventos
Acción del usuario
Respuesta del Sistema
1. En el menú principal de la
Interfaz Principal se Autentifica como usuario estudiante
y selecciona la opción Auto
evaluación.
3. Selecciona el tema de
evaluación en .
2. Muestra la interfaz
Ejercicios Evaluativos
5. Marca las respuesta que
considera correctas en y realiza la evaluación presionando
el botón Responder ,en caso
que no desee evaluarse en una
pregunta determinada puede
pasar para la próxima o la anterior en
4. Muestra el texto de
pregunta del tema seleccionado en y las posibles
respuestas de dicha pregunta en .
6. Guarda los resultados
en la Base de Datos del
Tutorial y Muestra en
pantalla la interfaz Resultado de Evaluaciones
y los resultados de las
evaluaciones realizadas
por el usuario.
Universidad Católica de Pereira
122
TABLA II
Caso de uso: mostrar registro de evaluaciones realizadas
Caso de uso:
Actores:
Acción del usuario
1. En la interfaz Ejercicios 2. Muestra la Interfaz AdEvaluativos se realiza la
ministrar Preguntas.
Administración de todas las
Preguntas relacionadas con
el Tema.
Mostrar Registro de Evaluaciones Realizadas.
Administrador/Profesor (inicia).
Descripción: El Caso de Uso se inicia cuando el Administrador o Profesor desean obtener los resultados de las
evaluaciones realizadas por los Estudiantes.
Precondiciones:
Que el usuario este autentificado como administrador o como
profesor.
Poscondiciones:
Que se muestren los resultados
de evaluaciones de los Estudiantes.
Curso normal de los eventos
Acción del usuario
TABLA III
Caso de uso: administrar ejercicios evaluativos
Caso de uso:
Actores:
TABLA IV
Caso de uso: gestionar cuenta de usuarios
Administrar Ejercicios Evaluativos.
Administrador/Profesor (inicia).
Descripción: El Caso de Uso se inicia cuando el Administrador desea administrar los Ejercicios Evaluativos, donde
se incluye la administración de los Temas, Preguntas y Respuestas.
Precondiciones:
Que el usuario este autentificado como administrador o como
profesor.
Poscondiciones:
Que los Ejercicios Evaluativos
hayan sido administrados.
Curso normal de los eventos
Gestionar
Usuarios.
Caso de uso:
Actores:
Cuenta
Administrador (inicia).
Acción del usuario
Respuesta del Sistema
1. En el menú principal de Interfaz del Sistema selecciona
la opción Gestión de usuarios
3. El usuario se autentifica
como administrador
2. Muestra en pantalla la
interfaz de Autenticación.
4. Muestra la interfaz de
Gestionar Cuentas de
Usuarios
Modelo de Entidad Relación de La Base de Datos
El modelo de entidad relación que se muestra en la fig. 4,
corresponde a la relación esquemática de las tablas I al IV
que constituyen la base de datos del software.
Imágenes de la interfaz grafica
A continuación se presentan algunas imágenes de la interfaz
gráfica que se presenta a los usuarios.
En la fig. 5 se presenta la entrada inicial del aplicativo
En la fig. 6 se hace referencia a la interfaz que permite el
ingreso al software o aplicativo, allí se validará dicho ingreso
mediante el login y contraseña.
En la figura número 7 se muestra la interfaz del estudiante
con las actividades propuestas
VI. Conclusiones
En el análisis de las encuestas realizadas a docentes y
alumnos de diferentes colegios de la ciudad de Pereira se
pudo concluir que:
- A todos los niños y niñas les gustan las clases de
Entre Ciencia e Ingeniería
de
Descripción:
El Caso de Uso se inicia cuando el administrador desea
administrar las Cuentas de los Usuarios del Tutorial.
Precondiciones:
El usuario este autentificado como administrador.
Curso normal de los eventos
Respuesta del Sistema
1. Ejecuta en la interfaz 2. Muestra en pantalla la interRegistro de Evaluación. faz Registro de Evaluaciones
Realizadas
3. Selecciona el tema si 4. Se muestra todos los datos
lo desea.
de las evaluaciones del estudiante. Se muestra un resumen
estadístico con el total de preguntas respondidas y la cantidad correctas e incorrectas y
también se activa el botón para
si desea eliminar el registro de
ese estudiante.
5. Si va a eliminar el 6. Se elimina el registro de
estudiante presiona el evaluación del estudiante
botón
Respuesta del Sistema
123
Fig.
Fig. 4.
4. Modelo
Modelo de
de entidad
entidad relación
relación de
de la
la base
base de
de datos
datos
Fig. 7. Interfaz del estudiante con actividades propuestas.
tecnología y consideran que deberían ver más horas de estas
clases.
Fig. 5. Presentación Inicial del Aplicativo
- El uso del computador y el internet hace que las clases
sean más didácticas, más interesantes para ellos, según
opinan los niños y los docentes.
- La gran mayoría de los niños usan las nuevas tecnologías
sin ningún inconveniente y es muy poco lo que se les
limita para su utilización.
- En el colegio se les anima a que hagan uso del internet
para buscar información y todos coinciden en afirmar
que este es el único medio que usan para hacer sus tareas.
- Entre los usos que se le da al internet predomina el de los
juegos y las redes sociales.
Fig. 6. Interfaz de validación de acceso a usuarios.
- Los docentes coinciden en que las nuevas tecnologías
pueden aportar mucho a la labor educativa y también
consideran que se debería utilizar este tipo de
herramientas en todas las asignaturas, para que así los
niños mostraran más interés por aprender cosas nuevas.
Universidad Católica de Pereira
124
- La gran mayoría de los niños desconocen los conceptos
de ciberbullying, sexting y grooming y por lo tanto, no
saben qué hacer cuando se les presentan estas situaciones.
Aun así los docentes afirman enseñar estos conceptos en
sus clases.
- Aunque se habla mucho de tecnología no se les enseña a
los niños como pueden actuar responsablemente frente a
ella.
- Los software educativos utilizados en los colegios están
enfocados en enseñar conceptos de cada asignatura, no
existe un software como el que aquí se propone, especial
para el buen uso de las TIC.
Con el fin de fortalecer el alcance del proyecto de
investigación, se implementó el software desarrollado con
una muestra de 35 niños, teniendo como conclusiones las
siguientes:
- El software fue aceptada por todos los niños y niñas
que utilizaron la aplicación. Todos se mostraron muy
interesados y motivados a utilizar la aplicación, por la
inquietud de observar las imágenes y escuchar el sonido
de algunas de ellas. También se pudo observar que los
temas tratados en los OVAS les llamaron mucho la
atención por tratarse de situaciones de las que escuchan
hablar a menudo.
- Por otro lado se observó que los niños de los últimos
grados (cuarto y quinto) tienen más habilidades para el
desarrollo de las actividades propuestas en los OVAS
y las realizaron fácilmente, de la misma forma se pudo
ver que estos niños analizan con mayor detalle los
contenidos.
- Se encontró que la mayoría de los niños utilizaron
fácilmente la aplicación. Todos ellos manifestaron
no necesitar de una persona que les enseñara
personalmente, ya que fue suficiente con explicarles
en que consiste y como se usa la aplicación, para que
rápidamente estuvieran mirando los OVAS y realizando
las actividades, se pudo observar que en las pruebas la
gran mayoría de los niños se inclinó considerablemente
por las actividades que representaban un reto para ellos.
- También se evidenció además que el uso del software
proporcionaba un ambiente de colaboración entre los
niños, quienes se inclinan más a pedir apoyo de sus
compañeros que del docente o persona encargada
de dirigir las pruebas. De manera general desde la
investigación se concluye que
- El software para el buen uso de las TIC se diseñó para
que los niños y niñas de educación básica primaria
comprendieran la importancia de manejar el internet, y
todas las demás tecnologías (celular, iPhone, tablets), de
un modo responsable, para no caer en situaciones que
puedan hacerles daño.
- Las actividades incluidas en la aplicación ofrecen la
facilidad de adquirir habilidades, aprendiendo en un
ambiente de interés, permitiendo trabajar dinámicamente,
por medio de imágenes, audio y texto, y así los niños
interpretan fácilmente los temas, sintiéndose invitados a
investigar más.
Se concluyó por último, que la implementación de un
software para el buen uso de las TIC es necesario para que
los niños y niñas se responsabilicen cuando están frente a
un computador y navegando en internet, teniendo en cuenta
el aumento en el uso de las TIC y la facilidad con que los
niños y niñas (sin importar su edad) tienen acceso a ellas y
aprenden a usarlas.
Referencias
[1].
[2].
[3].
[4].
[5].
[6].
[7].
[8].
[9].
[10].
- La aplicación es fácil de utilizar, entendible y útil.
Los colores presentados, las imágenes y el audio, son
agradables para los niños, permitiendo interactuar y
realizar las tareas asignadas de manera clara.
[11].
- El uso de las nuevas tecnologías representa un recurso
importante, casi esencial para la enseñanza, ya que
aportan facilidades para un aprendizaje más práctico y
efectivo.
[13].
Entre Ciencia e Ingeniería
[12].
[14].
Prensky. (2004). La investigacion.
Prensky, m. (2010). Http://www.marcprensky.com/.
Recuperado el 12 de septiembre de 2014, de http://www.
marcprensky.com/writing/prensky-nativos%20e%20
inmigrantes%20digitales%20(sek).pdf
Irazabal Zuazua, I. (11 de Septiembre de 2013). Universidad
Pública de Navarra. Obtenido de http://www.unavarra.es/
actualidad/noticias?contentId=173492
Gomez, c. (16 de septiembre de 2013). Un 5% de niños
de once años queda con desconocidos a través de internet.
España. Recuperado el 12 de 09 de 2014, de http://www.
tendencias21.net/un-5-de-ninos-de-once-anos-queda-condesconocidos-a-traves-de-internet_a23984.html
Colombia aprende. (s.f.). Recuperado el 23 de julio de
2014,
de
http://www.colombiaaprende.edu.co/html/
directivos/1598/article-172369.html
Drucker. (1993). Recuperado el 01 de agosto de 2014, de
es.slideshare.net/bernacho/bases-teoricas-para-el-uso-delas-tic
Hesselbein y col. (1996). Recuperado el 01 de agosto de
2014, de es.slideshare.net/bernacho/bases-teoricas-para-eluso-de-las-tic
Stewart. (1997). Recuperado el 01 de agosto de 2014, de
es.slideshare.net/bernacho/bases-teoricas-para-el-uso-delas-tic
Riveros, v., & mendoza, m. (s.f.). Recuperado el 14 de
septiembre de 2014, de http://tic-apure2008.webcindario.
com/tic_ve3.pdf
MEN. (18 de junio de 2013). Centro virtual de noticias de la
educación. Recuperado el 2014 de julio de 2014, de http://
www.mineducacion.gov.co/cvn/1665/w3-article-324021.
html
Marqués. (2001). Peremarques.net. Recuperado el 13 de
octubre de 2014, de www.peremarques.net/masme.htm
Marqués. (1996). Quadernsdigitals.net. Recuperado el 03
de noviembre de 2014, de www.quadernsdigitals.net/index.
php?accionmenu=secciones.
Marques, p. (2000). Oei.es. Recuperado el 21 de septiembre
de 2014, de www.oei.es/tic/santillana/marques.pdf
Marcano, I. (2012). Virtual Educa. Recuperado el 12 de
Agosto de 2014, de www.virtualeduca.info/
125
ponencias2012/200/virtualeduca.pd
[15]. Rodriguez Lamas, R., & Otros. (13 de Noviembre de 2000).
Edutec, Revista Electronica de Tecnologia Educativa.
Recuperado el 30 de Septiembre de 2014, de http://edutec.
rediris.es/Revelec2/Revelec13/Rlamas.html
[16]. MEN. (abril de 2004). Al tablero. Recuperado el 17 de
noviembre de 2014, de http://www.mineducacion.gov.
co/1621/article-87408.html
[17]. Romero tena, r. (09 de junio de 2002). Dialnet. Recuperado el
12 de octubre de 2014, de tecnologiaedu.us.es/cuestionario/
bibliovir/37.pdf.
[18]. Colombia digital. (2013). Recuperado el 20 de septiembre
de 2014, de colombiadigital.net/publicaciones_ccd/
descargar_publicaciones.php
[19]. C-403 de 2010 de la Corte Constitucional. (s.f.). Recuperado
el 20 de Septiembre de 2014, de www.corteconstitucional.
gov.co/relatoria/2010/c-403-10.htm
[20]. MINTIC art.39. (2009). Recuperado el 20 de septiembre
de
2014,
de
http://www.mintic.gov.co/portal/604/
articles-3707_documento.pdf
[21]. MEN. (2006). Plan decenal de Educación 2006 -2016.
Obtenido de http://www.plandecenal.edu.co/html/1726/
articles-166057_compendio_general.pdf.
[22]. Colombia aprende. (s.f.). Recuperado el 22 de septiembre
de 2014, de www.colombiaaprende.edu.co
[23]. Rosado, S. (2 de Febrero de 2015). Tabla comparativa de
los lenguajes de programación. Obtenido de Desarrollo
Web: http://desarrollowebydesarrolloweb.blogspot.com.
co/2015/02/tabla-comparativa-de-los-lenguajes-de.htm.
Euclides Murcia Londoño Nació en Santa fe de Bogotá (D.C), Colombia
el 1 de Noviembre de 1975 y estudió su pregrado de Licenciatura en
Matemáticas y Computación en la Universidad del Quindío, Especialista
en la Administración de la Informática Educativa de la Universidad de
Santander (UDES), y una Maestría en Enseñanza de la Matemática en la
Universidad Tecnológica de Pereira, ha Ejercido Profesionalmente como
docente para la Secretaria de Educación de Pereira, y para la Universidad
Católica de Pereira, se encuentra vinculado laboralmente y pertenece
al grupo de investigación GEMA. Entre sus campos de interés está la
didáctica, la estadística, las TIC y la metodología de Investigación.
Juan Luis Arias Vargas, es ingeniero Industrial de la Universidad
Tecnológica de Pereira (UTP), Especialista en la Administración de la
Informática Educativa de la Universidad de Santander (UDES), Magíster en
la Enseñanza de la Matemáticas (Línea de Estadística) de la UTP, es docente
Asociada I de tiempo completo de la Universidad Católica de Pereira, donde
actualmente se desempeña como Decano de la Facultad de Ciencias Básicas
e Ingeniería, también es Docente Catedrático Asistente de la UTP en la
Facultad de Ingeniería Industrial, en la actualidad es integrante del grupo de
investigación GIII de la Universidad Católica de Pereira.
Silvia María Osorio Montoya es Ingeniera de Sistemas y
Telecomunicaciones de la Universidad Católica de Pereira.
Universidad Católica de Pereira
126
Políticas de la Revista Entre Ciencia e Ingeniería
Identidad y objetivo de la revista
“Entre Ciencia e Ingeniería” es una revista de la
Universidad Católica de Pereira que tiene por objeto aportar
al desarrollo en ciencia básica e ingeniería mediante la
difusión de artículos que dan cuenta del avance y estado del
conocimiento, de la técnica y la tecnología y de la formación
en estas áreas.
La ciencia y la tecnología se consideran producto de la
inteligencia y están al servicio del hombre para su beneficio
y su bienestar, son muestra fehaciente e indiscutible de su
humanidad, de su naturaleza inquieta, perspicaz, aventurera
y exploradora de su realidad, que en su avance le ha
permitido subsistir, potenciarse y diferenciarse de las demás
especies aun más cuando el conocimiento se ha fraguado con
la creatividad permitiéndole diseñar herramientas, desplazar
la noche por el día o transformar la naturaleza.
Pero el ejercicio de la ciencia y la tecnología entrañan
repercusiones, algunas veces inesperadas. Las nuevas formas
de hacer y pensar pueden mejorar las condiciones de la vida
o también atentar contra los seres vivos y su hábitat, por
esto: El hombre cuanto más conoce la realidad y el mundo
y más se conoce a sí mismo en su unicidad, le resulta más
urgente el interrogante sobre el sentido de las cosas y sobre
su propia existencia.
La ciencia y la ingeniería conciben al mundo como
comprensible, con reglas que rigen su funcionamiento y las
cuales mediante un estudio cuidadoso y sistemático pueden
evidenciarse por patrones consistentes que permiten la
posibilidad de examinar las características fundamentales
que mejor describan los fenómenos y la forma en que
éstas se relacionan, será posible conocer más el mundo, su
evolución, sus transformaciones, ajustes y comportamientos
futuros.
En la búsqueda de la verdad existen aspectos que
se priorizan debido al contexto en el que está inserta la
Universidad Católica Popular del Risaralda, la mirada desde
y hacia lo regional permite la actualización y preparación en
el escenario mundial, pues se puede establecer paralelos con
el desarrollo de la ciencia y la ingeniería en el mundo.
Adicionalmente, esta mirada desarrolla una relación
de doble vía; mientras la región plantea de un sinnúmero
de oportunidades y problemas para que la Universidad se
desarrolle académicamente, se beneficia al tener soluciones
oportunas a sus necesidades, proporcionando las condiciones
adecuadas para la convivencia, la justicia, la libertad, la vida,
las oportunidades sociales y el desarrollo humano.
Entre Ciencia e Ingeniería
La manifestación más accesible y durable de la actividad
de investigación y el medio por excelencia para la difusión
del conocimiento es la publicación científica. De esta
manera “Entre Ciencia e Ingeniería” quiere hacer un aporte
con su publicación periódica para la continua renovación de
teorías, prácticas y un acercamiento a la verdad difundiendo
el quehacer científico y su posibilidad de inserción en los
contextos industriales, económicos, sociales y culturales.
Por lo tanto, los escritos referidos a esta revista deben
mantener el rigor propio de la ciencia, y enfocarse en los
recientes desarrollos en ciencia e ingeniería, sus tendencias,
validaciones y alcances. La producción de “Entre Ciencia e
Ingeniería” se respalda con un comité editorial, un arbitraje
nacional o internacional, una periodicidad de dos números
en el año y con la publicación de resultados originales de
proyectos de investigación.
Guía para autores
La revista “Entre Ciencia e Ingeniería”, está dirigida a
la comunidad académica, científica y sociedad en general
interesadas en el desarrollo de la ciencia y la ingeniería,
mediante la divulgación de trabajos de reflexión y de
investigación básica, aplicada y en educación en estas áreas.
Tipos de artículos admitidos
La revista evaluará las clases de artículos aceptados por
Colciencias a saber:
• Artículo de investigación científica y tecnológica.
Documento que presenta, de manera detallada, los
resultados originales de proyectos de investigación
terminados. La estructura generalmente utilizada
contiene cuatro apartes importantes: introducción,
metodología, resultados y conclusiones.
• Artículo de reflexión. Documento que presenta
resultados de investigación terminada, desde una
perspectiva analítica, interpretativa o crítica del autor,
sobre un tema específico, recurriendo a fuentes originales.
• Artículo de revisión. Documento resultado de una
investigación terminada donde se analizan, sistematizan
e integran los resultados de investigaciones publicadas o
no publicadas, sobre un campo en ciencia o tecnología,
con el fin de dar cuenta de los avances y las tendencias
de desarrollo. Se caracteriza por presentar una cuidadosa
revisión bibliográfica de por lo menos 50 referencias.
127
•Discusión. Posiciones críticas, analíticas e interpretativas
sobre los documentos publicados en la revista, que a juicio
del comité editorial constituyen un aporte importante a la
discusión del tema por parte de la comunidad científica
de referencia.
•Respuesta. Documento que responde a un escrito de
discusión. Es realizado por el autor del artículo que
suscitó el debate.
De la recepción y evaluación de artículos
• Los autores deben enviar su trabajo al comité editorial
de la revista, dirección electrónica [email protected]
co, adjuntando los siguientes formatos debidamente
diligenciados: ficha del autor(es), ficha del proyecto y
carta de originalidad.
• El comité editorial verifica si el documento es pertinente
con la identidad y objetivo de la revista, dado su
cumplimiento, se somete a una evaluación de carácter
disciplinar y de estilo, para su valoración respectiva.
• El evaluador disciplinar, dará su opinión especializada
sobre el artículo, siendo este un académico con formación
disciplinar adecuada para garantizar el rigor académico,
la pertinencia y la calidad del mismo; el evaluador de
estilo es un académico competente en procesos de lectura
y escritura, quien revisará la redacción, ortografía,
cohesión y coherencia del escrito. Cada uno de ellos
informará por escrito, en formatos establecidos, al comité
editorial su consideración respecto a si el artículo es apto
o no para su publicación o si requiere correcciones.
• Si el documento no es aceptado en primera instancia
por el comité editorial, se informa al autor para que este
pueda disponer del artículo.
documento al comité editorial. Los evaluadores verifican
las correcciones y le sugiere al comité si el artículo puede
o no ser publicado.
• Si el documento no es aceptado después de los resultados
del arbitramiento se informa al autor para que pueda
disponer del artículo.
• Si un artículo es rechazado, la revista tiene como política
no reconsiderar la decisión.
• El autor debe hacer una revisión final al artículo impreso
en el machote de la revista o en PDF, el cual se enviara
vía correo electrónico.
Del autor
•
El autor corresponsal, se considera que actúa de buena
fe en representación de todos los autores del escrito y se
somete con responsabilidad a garantizar la originalidad
del trabajo y de no presentar en forma simultánea el
documento a otra publicación en un lapso de 12 meses, a
menos que sea rechazado en esta revista.
•
El autor corresponsal, en nombre de los coautores, con
pleno poder otorgado por ellos, cede a la Universidad
Católica de Pereira los derechos para la publicación
del artículo en todos los idiomas y en todos los medios
posibles de divulgación.
•
Al someter un artículo, el o los autores aprueban la
publicación en papel y electrónica de su obra en la
revista “Entre Ciencia e Ingeniería”, ISSN 1909-8367,
en caso de ser aprobado por los evaluadores y el comité
editorial.
•
Los juicios emitidos por el autor o los autores del
artículo son de su entera responsabilidad. Por eso, no
comprometen ni las políticas de la Universidad Católica
de Pereira, ni las de la revista.
•
Los autores se hacen responsables de garantizar los
derechos de autor, de todo el material utilizado en el
artículo.
• Los evaluadores desconocen los nombres de los autores
y viceversa.
• Con base en los resultados de las evaluaciones
suministradas por los evaluadores, el escrito:
- Se rechaza para publicación, en el caso de que alguno
de los dos evaluadores o ambos consideren que el
artículo no cumple con las condiciones para ser
publicado.
- Se debe corregir y enviar nuevamente a evaluación, en
el caso de que uno o ambos árbitros consideren que se
deben realizar modificaciones.
- Se acepta para publicación, si ambos evaluadores
consideran que el artículo cumple con las condiciones
requeridas para tal fin.
• Cuando el documento requiere correcciones, los
autores las realizan o deciden retirar el artículo de la
convocatoria. Al realizar las correcciones, retornan el
• En cada edición solo se someterá a evaluación un solo
artículo por autor.
Del artículo
• Los artículos para publicación deberán ser inéditos y
exclusivos para la revista.
• Se aceptan trabajos en español o inglés. Prevaleciendo
las normas y el buen uso del idioma empleado.
• La extensión mínima del artículo es de 6 páginas y la
máxima de 8, siguiendo el formato y las normas respecto
Universidad Católica de Pereira
128
a imágenes, referencia, tablas y demás de la IEEE, de
acuerdo a la plantilla de la revista que se envía a los
autores.
Reglas para el formato de los artículos –
Presentación Gráfica (seguir las plantillas/ModeloArtículo presentado)
Nota: Importante cumplir con estas normas para
que su artículo sea recibido.
hasta un máximo de 10, que ayuden a identificar los
temas o aspectos principales del artículo.
7. Título de sección en Times New Roman 10, en letras
versalitas y numeradas con números romanos (I.
Introducción).
E
ste documento proporciona un ejemplo de diseño
de edición de un artículo técnico en español para la
Revista IEEE América Latina. Es una plantilla hecha
con el……
1.Los artículos deben enviarse en formato Microsoft
Word. Debe elegirse un tamaño de página Letter de
215,9×279,4 mm (8,5×11 pulgadas o 51×66 picas) con
márgenes superior, inferior, izquierdo y derecho de 16,9
mm (0,67 pulgadas o 4 picas) y doble columna con
separación central de 4,3 mm (0,16 pulgadas o 1 pica),
lo que da una columna de 88,9 mm (3,5 pulgadas o 21
picas) mm de ancho y 245,6 mm de alto (9,66 pulgadas
o 58 picas). El interlineado adoptado es de 1,05 puntos,
pudiendo variarse de 1,03 a 1,07 para ayudar a completar
páginas
8. La primera letra de la primera palabra del primer párrafo
(de la Introducción) debe ser capitular de tamaño de dos
líneas. Ejemplo:
2. Para los artículos en español (el título, resumen y palabras
clave deben estar en español, inglés y portugués), Times
New Roman, tamaño 9 en color negro (incluyendo
enlaces y correos). Los artículos también se reciben en
inglés o portugués.
TABLA I
TAMAÑOS Y ESTILOS DE LA LETRA TIMES NEW ROMAN
EMPLEADA EN LA COMPOSICIÓN DE UN ARTÍCULO CON ESTA
PLANTILLA O SIN ELLA
3. El artículo debe tener un promedio de seis a ocho (6-8)
páginas, sin contar referencias.
9. El contenido del artículo en Times New Roman 10. Cada
párrafo comienza con tabulación de 5 espacios (sangría),
No hay espacios entre párrafos.
10.Título de las tablas en Times New Roman 8, mayúsculas
y con números romanos (TABLA I debajo NOMBRE
DE LA TABLA.). ejemplo:
11.La leyenda de las figuras deben ser escritas “Fig. 1.
xxx “, justificada a la izquierda en Times New Roman
8, terminando con el punto; para citar las figuras en el
cuerpo del artículo, usar “ Fig. 1”. Ejemplo:
4. Título del artículo en español, en inglés y en portugués,
Times New Roman tamaño 18 y centrado, ejemplo:
Plantilla de preparación de
artículos técnicos en procesador
de texto word (Microsoft)
5. Los nombres de los autores debe venir justo debajo del
título, en Times New Roman tamaño 11, en el formato.
Iniciales de los nombres seguido de punto con espacio
entre ellos y seguido del primer apellido completo.
Ejemplo, Juan Luis Arias Vargas (J. L. Arias)
6. Los Abstract (Un breve resumen del artículo) y Key
Words (palabras que permitan identificar la temática del
artículo) deben ponerse en español y en inglés, cursiva
y negrita, seguidas de un guión largo (—, ALT+0151)
sin espacio (Abstract— Key Words— ); el texto debe
contener un párrafo escrito en negrita, en español, inglés
y portugués todos en Times New Roman 9 y en negrilla.
El resumen no debe pasar de 150 palabras y no puede
contener ecuaciones, figuras, tablas ni referencias. Se
debe proporcionar palabras clave (en orden alfabético),
Entre Ciencia e Ingeniería
Fig. 1. Inducción magnética en función del campo magnetizante.
(Nótese que “Fig.” se ha escrito abreviada y hay doble espacio antes del
texto)
12.Las ecuaciones deben ser justificadas a la izquierda
y numeradas con números arábigos entre paréntesis
justificado a la derecha.
13.El título del apéndice debe ser centrado y cada uno de
los apéndices justificado a la izquierda, con la etiqueta
Apéndice A: xxx, Apéndice B: xxx.
129
14.Las secciones Referencias y Agradecimientos no se
numeran, tipo de letra Times New Roman, tamaño 8,
y debe seguir exactamente el modelo IEEE es decir,
numeradas en orden de aparición y de acuerdo al tipo de
documento que se esté referenciando (ver el modelo para
cada tipo de documento: libros, artículos, mpaginas web
etc). Dentro del documento aparece por ejemplo [1] y al
final en la sección de REFERENCIAS el formato debe
ser:
[1]
[2]
[3]
J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics
on power distribution system protection,” IEEE Trans. Power
Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988.
E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas
Propagat., to be published.
R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas
as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online].
21(3), pp. 876-880. Disponible en:
1
Producto derivado del proyecto de investigación “X-NOMBRE
PROYECTO-XXXX”. Presentado por el Grupo de Investigación
X-NOMBRE GRUPO DE INVESTIGACIÓN-XXXX, de la facultad
o departamento XX-NOMBRE DE LA FACULTAD-XXXX, de la
Universidad XXX-NOMBRE DE LA UNIVERSIDAD-XXXX.
J.L. Vargas, Magister XXXX, Docente de la Universidad Católica
de Pereira, Pereira (Colombia); email: [email protected]
J. V. Pedraza, PhD XXXX, Docente de la Universidad Católica de
Pereira, Pereira (Colombia); email: [email protected]
M. Ruiz, Magister XXXX, Docente de la Universidad Católica de
Pereira, Pereira (Colombia); email: [email protected]
Nota: en la página web de la revista http://biblioteca.ucp.edu.
co/OJS/index.php/entrecei, puede encontrar y bajar todos los
formatos y guía para autores.
15.El artículo debe tener las Biografías de los autores al
final, seguir el formato definido en el modelo, la foto es
obligatoria. Deben venir después de las referencias, sin
título de sección, con tipo de letra Times New Roman
8. Los nombres de los autores con apellidos, en negrita.
Ejemplo:
Nikola Tesla (M’1888, F’17)
nació en Smiljan, Yugoslavia, el 9
de Julio de 1856. Se graduó en la
Escuela Politécnica Austriaca de
Graz y estudió en la Universidad
de Praga.
Ejerció profesionalmente en
la American Telephone Company
de Budapest, la Edison Machine
Works, la Westinghouse Electric
Company y los Laboratorios
Nikola Tesla. Entre sus campos de
interés estaban los fenómenos de
alta frecuencia.
El ingeniero Tesla recibió títulos honoríficos de diversas
instituciones de enseñanza superior entre las que se encuentran
las universidades de Columbia, Yale, Belgrado y el Zagreb.
Obtuvo la Medalla Elliott Cresson del Instituto Franklin y la
Medalla Edison del IEEE. En 1956, el término “tesla” (T) fue
adoptado como unidad de inducción magnética, o densidad de
flujo magnético, del sistema de medidas MKSA. En 1975 la
Power Engineering Society estableció el Premio Nikola Tesla
en su honor. Tesla murió en Nueva York el 7 de enero de 1943.
16.Si el artículo es resultado de investigación debe llevar un
pie de página en la primera hoja columna de la izquierda,
indicando: el nombre del proyecto del cual se deriva,
la facultad o departamento, la institución y el grupo
de investigación al cual pertenece, en letra Times New
Román tamaño 8. Al igual que en el contenido del artículo
cada párrafo comienza con tabulación de 5 espacios. Y
no hay espacios entre párrafos. El tamaño de interlineado
es 1.0. Seguido debe llevar como pie de página en la
primera hoja columna izquierda, la información de los
autores en la cual se mencione: Los nombres tal como
aparecen en la parte superior (Iniciales del nombre y
el primer apellido completo), seguido de la afiliación
laboral, ciudad-País y correo electrónico Ejemplo:
Universidad Católica de Pereira
130
“Entre Ciencia e Ingeniería” Magazine Policies
Magazine identity and objective
Entre Ciencia E Ingeniería (Between science and
Engineering) is a Magazine of Universidad Católica de
Pereira which aims is to contribute to the development in
Basic Science and Engineering of articles that show the
advance and condition of the knowledge, the technique and
the technology and the training in these areas.
Science and Technology are considered to be a product of
the intelligence and they are in the service of mankind for its
benefit and welfare, they are an authentic and indisputable
sample of its humanity, of its anxious, insightful, adventurous
and explorative nature of its reality, which has allowed it to
survive through time, to be promoted and to differ from other
species; even more when the knowledge has blown up with
the creativity allowing mankind to design tools, to displace
through the night, during the day or to transform nature.
But the exercise of Science and Technology entrails
repercussions (sometimes unexpected). New ways of doing
and thinking can improve the conditions of life or even
threaten living beings and their habitat. Thus: The more
human beings know reality and the world the more he
knows about himself in his uniqueness, the question about
the meaning of things and human’s self-existence becomes
more urgent.
Science and engineering conceive the world as
comprehensive, with rules governing its functioning and
which are demonstrated through careful and systematic
study. They can be evidenced by constant patterns that allow
to examine the fundamental characteristics that best describe
the phenomena and how they relate, it would be possible to
learn more about the world, its evolution, its transformations,
adjustments and future behavior.
In the search of the truth there are aspects that are prioritized
because of the context in which the Universidad Católica
de Pereira is placed, the perception from and to the region
allows updating and having a preparation on the world stage
so that parallels can be set with the development of Science
and Engineering in the world.
Additionally, this perception is developing a two-way
relationship; while the region poses countless opportunities
and challenges for the University to develop academically,
it benefits from having suitable solutions to their needs,
providing the right for living conditions, justice, freedom,
life, social opportunities and human development.
The manifestation regarding the durability and accessibility
of the research and the means par excellence for the
dissemination of knowledge manifestation is called
Entre Ciencia e Ingeniería
scientific publication. Thus, the Magazine wants to make a
contribution with its scientific publication for the continuous
renewal of theories, practices and an approach to spreading
scientific work and the possibility of integration into
industrial, economic, social and cultural contexts.
Therefore, the writings referred to this magazine must
maintain the rigor of science, and focus on recent
developments in Science and Engineering, trends, validations
and scope. Production of this Magazine is supported by an
editorial committee, a national or international arbitration, a
periodicity of two numbers in the year and the publication of
original results of research projects.
Guide for Authors
The Magazine entre Ciencia e Ingeniería, is aimed at the
academic community, science and society interested in
the development of Science and Engineering, through the
dissemination of works of reflection and basic research,
applied research and education in these areas.
Authorized Articles
The magazine will evaluate the kinds of articles accepted
by Colciencias:
• Article of scientific and technological research.
Document presents, in detail, the original results of
research projects completed. The structure generally
used contains four important sections: introduction,
methodology, results and conclusions.
• Article of reflection. Document that presents results
of completed research, from an analytical perspective,
interpretive or criticism of the author on a specific topic,
resorting to original sources.
• Review Article. Document of a completed research
where the findings of published or not published articles
are analyzed, systematized and integrated on the field of
science or technology, in order to give an account of the
progress and trends of development. It is characterized
by a careful review of the literature of at least 50
references.
• Discussion. Critical positions, analytical and interpretive
on the documents published in the magazine, which in
the opinion of the Editorial Committee constitute an
important contribution to the discussion of the item on
the part of the scientific community of reference.
• Response. Document that responds to a writing of
131
discussion. It is done by the author of the article that
started the debate.
Receipt and evaluation of articles
• The authors should send their work to the editorial
committee of the Magazine, to the email address
[email protected], attaching the following formats
duly completed: tab of the author(s), tab of the project
and charter of originality.
• The editorial committee verifies if the document is
relevant to the identity and purpose of the Magazine,
given its compliance, it is subjected to an assessment of
disciplinary research for its due assessment.
• The disciplinary evaluator (considered as a trained
academic with appropriate discipline) will give his/her
expert opinion on the article to ensure the academic
rigor, the relevance and its quality; the evaluator of style
is an academic authority in the process of reading and
writing, who will review the drafting, spelling, cohesion
and coherence of the writing. Each one of them will
inform in writing, through established formats, the
editorial committee consideration as to whether the
article is suitable or not for publication or whether
corrections are required.
• If the document is not accepted at first instance by the
editorial committee, the author is informed so that he or
she disposes of the article.
• The evaluators are unaware of the authors’ names and
vice versa.
• Based on the evaluations results provided by the
evaluators, the writing:
- Is rejected for publication, in the case that any of the
two evaluators or both consider that the article does not
comply with the conditions to be published.
- Must be corrected and send back to evaluation, in the
event that one or both arbitrators consider that changes
need to be made.
- Is accepted for publication, if both evaluators consider
that the article meets the conditions required for this
purpose.
• When the document requires corrections, the authors
make corrections or decide to remove the article of the
call. When corrections are made, the author must return
the document to the editorial committee. The evaluators
verified the corrections and suggest to the Committee if
the article may or may not be published.
•
If an article is rejected, the magazine has as a policy no
to reconsider the decision.
• The author must make a final revision to the article
printed in the dummy of the magazine or in PDF, which
is sent via email.
The author
• The corresponding author, is considered to act in good
faith on behalf of all authors and submitting responsibly.
Ensuring the authenticity of the work and it must not
be presented simultaneously to another publication
in a period of 12 months, unless it is rejected in this
Magazine.
• The corresponding author on behalf of the sponsors,
with full power granted by them, gives the Universidad
Católica de Pereira the rights for the publication of
the article in all languages and all possible means of
disclosure.
• When submitting an article, the author or the authors
approve the paper and electronic publication of his/
her work in the entre Ciencia e Ingeniería Magazine,
ISSN 1909-8367, if approved by the evaluators and the
editorial committee.
• The judgments issued by the author or authors of the
article are their entire responsibility. Therefore, do not
commit neither the policies of the Universidad Católica
de Pereira, nor those of the Magazine.
•
The authors are responsible for ensuring the copyright
of all the material used in the article.
•
Only a single article per author will be evaluated in each
edition.
Article Guide
• Articles for publication must be unpublished and
exclusive for the Magazine.
•
Works in Spanish, Portuguese or English are accepted.
Prevailing standards and appropriate language use.
•
The minimum extension of the article is 6 pages and
a maximum of 8, following the format and rules with
regard to images, reference, tables and other of the
IEEE, according to the template for the article to be sent
to the authors.
• If the document is not accepted after the results of the
arbitration the author must be informed so that the
composer can dispose of the article.
Universidad Católica de Pereira
132
Format rules for the articles - Graphical presentation
(follow the Templates/Model-Article submitted)
Note: Important to comply with these rules so that the
article can be received.
1. The articles must be sent in Microsoft Word format. A
page letter size of 215.9×279.4 mm (8.5×11 inches or
51×66 picas) with top, bottom, left and right margins of
16.9 mm (0.67 inch or 4 picas) and double column with
central separation of 4.3 mm (0.16 inch or 1 pic) must be
chosen, which gives a column of 88.9 mm (3.5 inches
or 21 picas) wide and 245, 6 mm high (9.66 inches or
58 picas). The line spacing adopted is 1.05 points, it can
vary from 1.03 to 1.07 to help complete pages.
T
his document provides an example of an edition
design of a technical article in Spanish for the
IEEE Latin American Magazine. It is a template made
with the…
9. Content of the article in Times New Roman 10. Each
paragraph begins with tabulation of 5 spaces (indent),
there are no spaces between paragraphs.
10.Title of the tables in Times New Roman 8, uppercase and
with Roman numerals (table I below the table name.).
Example:
Table i
Sizes and styles of the times new roman font used in the composition of
an article with this template or without it
2. Articles in Spanish (the title, abstract and key words must
be in Spanish, in English and in Portuguese), Times New
Roman, size 9, black color (including links and mails).
The articles are also received in English or Portuguese.
11. Figures caption must be written “Fig. 1. Xxx “, left
aligned in Times New Roman 8, ending with a period; to
cite figures in the article´s body, use “Fig. 1”. Example:
3. The article must have an average of six to eight (6-8)
pages excluding references.
4. Title of the article in Spanish, in English and Portuguese:
Times New Roman, size 18 and text centered, example:
Template for the preparation of
technical articles in Microsoft
Office Word processor
5. The authors’ names must be just below the title, in
Times New Roman size 11, in the format. Initials for
the names followed by period with space between them
and followed by the surname. Example, Juan Luis Arias
Vargas (J. L. Arias)
6. The Abstract (a brief summary of the article) and key
words (words that allow us to identify the topic of the
article) must be in Spanish, Portuguese and English,
italic and bold, followed by a dash (-, ALT 0151) without
any space (Abstract- Key Words-); the text must contain
a paragraph written in bold, in Spanish, English and
Portuguese all in Times New Roman, size 9. The summary
must not exceed 150 words and cannot contain equations,
figures, tables, or references. You must provide keywords
(in alphabetical order), up to a maximum of 10, to help
identify the issues or main aspects of the article.
7. Section Title in Times New Roman 10, in Versalita, and
numbered in Roman numerals (I. Introduction).
8. The first word letter, in the first paragraph (Introduction)
must be equivalent to two lines size. Example:
Entre Ciencia e Ingeniería
Fig. 1. Magnetic Induction in function of the magnetized field.
(Notice that “Fig.” has been written abbreviated and there is double space
before the text)
12. The equations must be justified to the left and numbered
with Arabic numerals in parentheses right justified.
13. The title of the appendix must be text centered and each
of the Appendices left-justified, with the label Appendix
A: xxx, Appendix B: xxx.
14. The
sections
REFERENCES
and
ACKNOLEDGEMENTS are not numbered, Times
New Roman font, size 8, and must follow exactly the
IEEE model i.e., numbered in order of appearance and
according to the type of document you are referencing
(see the model for each type of document: books,
articles, web pages, etc.) There is for example [1] within
the document and at the end in the REFERENCES
section format must be:
133
[1]
[2]
[3]
J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “Influence of harmonics
on power distribution system protection,” IEEE Trans. Power
Delivery, vol. 3, no.2, pp. 549-557, Apr. 1988.
E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas
Propagat., to be published.
R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas
as electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online].
21(3), pp. 876-880. Disponible en:
Note: on the Magazine web page: http://biblioteca.ucp.edu.
co/OJS/index.php/entrecei, you can find and download all
formats and guide for authors.
The Editorial Committee
15. The article must have the Biographies of the authors
at the end, follow the format defined in the model, the
photo is mandatory. It must come after the references,
without section title, typed in Times New Roman 8. The
authors’ names with surnames, in bold. Example:
Nikola Tesla (M’1888, F’17) was born
in Smiljan, Yugoslavia, on July 9,
1856. He graduated from the Austrian
Polytechnic School in Graz and
studied at the University of Prague.
He
worked
professionally
in
the
American
Telephone
Company
of
Budapest,
the Edison Machine Works, the
Westinghouse Electric Company
and Nikola Tesla Laboratories.
The
high-frequency
phenomena
was one of his areas of interest.
Engineer Tesla received honorary degrees from various institutions
of higher education including universities such as Columbia, Yale,
Belgrade and Zagreb. obtained the Elliott Cresson Medal in Franklin
Institute and the IEEE Edison Medal.
In 1956, the term “tesla” (T) was adopted as a unit of
magnetic induction or magnetic flux density, the system
measures MKSA. In 1975 the Power Engineering
Society established the Nikola Tesla Award in his honor.
Tesla died in New York on January 7, 1943.
16. If the article is the result of a research a footer must be
done on the first page column on the left, indicating: the
name of the project from which it is derived, the faculty
or department, the institution and the research group to
which it belongs, in Times New Roman size 8. As well
as in the content of the article each paragraph begins
with tabulation of 5 spaces. And there are no spaces
between paragraphs. The size of line spacing is 1.0.
The information of the authors must be mentioned in a
footer on the first page left column this way: The names
as they appear in the top (initials for the names and the
first full last name), followed by the labor affiliation,
city-country and email, example:
1
Product derived from a research project “X-PROJECT NAME-XXXX”.
Submitted by the Research Group X-NAME RESEARCH GROUP-XXXX,
of the faculty or department XX NAME OF FACULTY-XXXX, University
XX-NAME OF THE UNIVERSITY-XXXX.
J. L. Vargas, Magister XXXX, teaching of Universidad Católica de Pereira,
Pereira (Colombia); email: [email protected]
J. V. Pedraza, PhD XXXX, teaching of Universidad Católica de Pereira,
Pereira (Colombia); email: [email protected]
M. Ruiz, Magister XXXX, teaching of Universidad Católica de Pereira,
Pereira (Colombia); email: [email protected]
Universidad Católica de Pereira
134
Politicas da Revista entre Ciência e Engenharia
Identidade e objetivo da revista
“Entre Ciência e engenharia” é uma revista da Universidade
Católica de Pereira que tem por objetivo contribuir para o
desenvolvimento em ciência básica e engenharia através da
divulgação de artigos que dão conta do progresso e o estado
de conhecimento, técnica, tecnologia e formação nestas
áreas.
A ciência e a tecnologia se consideram produto da inteligência
e estão a serviço do homem para seu próprio beneficio e bem
estar. São provas irrefutáveis, inegável de sua humanidade,
e natureza astuta, inquieta, aventureira e explorador de
sua realidade, o que lhe permitiu sobreviver, fortalecer
e diferenciar-se de outras espécies ainda mais quando se
forjou conhecimento com criatividade permitindo-lhe
projetar ferramentas, trocar a noite pelo dia ou transformar
a natureza.
Mas o exercício da ciência e a tecnologia envolvem
repercussões, algumas vezes inseparáveis. As novas formas
de fazer e pensar podem melhorar as condições da vida ou
também ameaçar os seres vivos e seu habitat, por isso: quanto
mais conscientes da realidade e do mundo, o homem sabe
mais de sua própria singularidade, mais urgente é a questão
sobre o significado das coisas e sua própria existência.
A ciência e a engenharia tem o mundo como compreensível,
com regras que regem seu funcionamento nas quais mediante
um estudo cuidadoso e sistemático podem evidenciar padrões
consistentes que possibilitam examinar as características
fundamentais que melhor descrevam os fenômenos e a
maneira que se relacionam, será possível conhecer mais o
mundo, sua evolução, suas transformações, adaptações e
comportamentos futuros.
Na busca da verdade existem aspectos que se priorizam
devido ao contexto que está inserida a Universidade Católica
Popular de Risaralda, o olhar a partir e até o regional permite
a atualização e preparação no cenário mundial, pois pode
estabelecer paralelos com o desenvolvimento da ciência e a
engenharia no mundo.
Além disso, esta visão desenvolve uma relação bidirecional;
enquanto a região planteia um incontável numero de
oportunidades e problemas para que a Universidade se
desenvolva academicamente, beneficiando por ter soluções
oportunas para suas necessidades, fornecendo as condições
para a convivência, justiça, liberdade, vida, oportunidades
sociais e desenvolvimento humano.
A manifestação mais acessível e durável da atividade de
investigação e o meio por excelência para a difusão do
conhecimento é a publicação cientifica. Desta maneira
“Entre Ciência e Engenharia” quer fazer uma contribuição
com sua publicação periódica para a contínua renovação de
teorias, praticas e uma aproximação à verdade difundindo
o trabalho cientifica e sua possibilidade de inserção nos
contextos industriais, econômicos, sociais e culturais.
Entre Ciencia e Ingeniería
Portanto, os escritos referidos esta revista devem manter
o rigor da ciência e focar desenvolvimentos recentes na
ciência e engenharia, suas tendências, validações e alcances.
A produção de “Entre Ciência e Engenharia” é apoiado
por um comitê editorial, uma arbitragem nacional ou
internacional, uma periodicidade de dois números no ano
e com a publicação de resultados originais de projetos de
investigação.
Guia para autores
A revista “Entre Ciência e Engenharia”, está dirigida para
a comunidade acadêmica, cientifica e sociedade em geral
interessadas no desenvolvimento da ciência e a engenharia,
mediante a divulgação de trabalhos de reflexão e de
investigação básica, aplicada e também educação nestas
áreas.
Tipos de artigos aceitos
A revista avaliará as classes de artigos aceitados por
Colciencias, a saber:
· Artigo de pesquisa científica e tecnológica. Documento
que apresenta, de maneira detalhada, os resultados
originais de projetos de investigação terminados. A
estrutura geralmente utilizada contem quatro partes
importantes: introdução, metodologia, resultados e
conclusões.
· Artigo de reflexão. Documento que apresenta resultados
de uma investigação terminada desde uma perspectiva
analítica, interpretativa ou critica do autor, sobre um
tema especifico, recorrendo a fontes originais.
· Artigo de revisão. Documento resultado de uma
investigação terminada onde se analisam, sistematizam e
integram os resultados de investigações publicadas, sobre
um campo em ciência ou tecnologia, com a finalidade de
explicar os avanços e as tendências do desenvolvimento.
Caracteriza-se por apresentar uma cuidadosa revisão
bibliográfica de pelo menos 50 referencias.
·Discussão. Posição crítica, analíticas e interpretativas
sobre os documentos publicados na revista, que
a julgamento do comitê editorial constituem um
fundamento importante à conclusão do tema por parte da
comunidade de referência.
·Resposta. Este documento responde a um anúncio de
discussão. É feito pelo autor do artigo que desencadeou
o debate.
Recepção e avaliação de artigos
135
· Os autores devem enviar seu trabalho ao comitê editorial
da revista, para o e-mail [email protected], anexando
os seguintes formatos devidamente preenchidos: ficha do
autor (es), ficha do projeto e carta de originalidade.
submete com responsabilidade a garantir a originalidade
do trabalho e do não apresentar em forma simultânea
documento a outra publicação em um lapso de 12 meses,
a menos que seja rejeitado nesta revista.
O comitê editorial verifica se o documento é relevante com
a identidade e o objetivo da revista, dado cumprimento,
passa por uma avaliação da disciplina de caráter e estilo,
para sua respectiva avaliação.
· O autor correspondente, em nome dos coautores, com
pleno poder outorgado por eles, cede a Universidade
Católica de Pereira os direitos para a publicação do
artigo em todos os meios possíveis de divulgação.
· O avaliador disciplinar dará sua opinião especializada
sobre o artigo, sendo este um acadêmico com formação
disciplinar adequada para garantir o rigor acadêmico, a
pertinência e a qualidade do mesmo; o avaliador de estilo
é um acadêmico competente em processos de leitura e
escritura, quem revisará a redação, ortografia, coesão
e coerência do escrito. Cada um deles informará por
escrito, em formatos estabelecidos, ao comitê editorial
sua consideração a respeito se o artigo é apto ou não para
sua publicação ou se requer correções.
· Ao submeter um artigo, o autor o autores aprovam a
publicação em papel e eletrônica de sua obra na revista
“Entre Ciência e Engenharia”, ISSN 1909-8367, em caso
de ser aprovado pelos avaliadores e o comitê editorial.
· Se o documento não é aceito no primeiro instante pelo
comitê editorial, se informa ao autor para que este possa
despor do articulo.
· Os avaliadores desconhecem os nomes dos autores e
vice-versa.
· Os julgamentos emitidos pelo autor ou autores dos
articulo são de sua inteira responsabilidade. Por isso, não
comprometem nem as politicas da Universidade Católica
de Pereira, nem as da revista.
· Os autores são responsáveis por garantir o copyright de
todo o material utilizado no artigo.
· Em cada edição só se submeterá a avaliação de único
artigo pelo autor.
Do artigo
· Com base nos resultados das avaliações subministradas
pelos avaliadores, os escrito:
·
Os artigos para a publicação deverão ser inéditos e
exclusivos para a revista.
- Rejeita-se para a publicação. No caso de que algum dos
avaliadores ou ambos considerem que o articulo não
compre com as condições para ser publicado.
·
Aceitam-se trabalhos em espanhol, português ou
inglês. Prevalecendo as normas e o bom uso do idioma
empregado.
- Deve-se corrigir e enviar novamente a avaliação, no caso
de que um dos ou ambos os árbitros considerem que se
devem realizar modificações.
·
A extensão mínima do artigo é de seis (6) páginas
e máxima oito (8), seguindo o formato e as normas
a respeito a imagens, referencia, tabelas e demais da
IEEE, de acordo com o modelo do artigo que se envia
para os autores.
- É aceito para publicação, se ambos os avaliadores
consideram que o artigo satisfaz as condições necessárias
para esse efeito.
· Quando o documento requer correções, os autores as
realizam ou decidem retirar o artigo da convocatória. Ao
realizar as correções, retornam o documento ao comete
editorial. Os avaliadores verificam as correções e sugere
ao comitê se o artigo pode ser publicado ou não.
· Se o documento não é aceito depois dos resultados do
arbitramento se informa ao autor pode ter o artigo.
· Se um artigo é rejeitado, a revista tem como política não
aceitar reconsiderar a decisão.
· O autor deve fazer uma revisão final do artigo impressa
no modelo da revista o em PDF, o qual se enviara via
correio eletrônico.
Do autor
· O autor correspondente se considera que atua de boa
fé em representação de todos os autores do escrito e
Regras de formatação de artigos – apresentação gráfica
(seguir o modelo – Artigo apresentado)
Nota: é importante cumprir com essas normas para que
seu artigo seja recebido
1. Os artigos devem ser enviados em arquivo Microsoft
Word. Em tamanho Carta de 215,9×279,4mm (8, 5 × 11
polegadas ou 51 × 66 paicas) com margens superiores,
inferiores, esquerda e direita 16,9 mm (0,67 polegadas
ou 4 paicas) e coluna dupla com separação central de
4,3 mm (0,16 polegadas ou 1 paica), que resulta uma
coluna de 88,9 mm (3,5 polegadas ou 21 paicas) mm
largura e 245,6 mm de altura (9,66 polegadas ou 58
paicas). O espaçamento de linha adotado é 1,05 pontos
e pode variar de 1,03 a 1,07 para ajudar a completar
páginas.
2. Para artigos em espanhol (o título, resumo e palavraschaves devem ser em espanhol, inglês e Português),
Times New Roman, preto tamanho 9 (incluindo links e
e-mails). Itens também são recebidos em inglês ou em
Português.
Universidad Católica de Pereira
136
3.
O artigo deve ter uma media de seis a oito (6-8) paginas,
sem contar referências.
4.
Titulo do artigo em espanhol, em inglês e em português,
Times New Roman tamanho 18 e centrado, exemplo:
Modelo de preparação de artigos
técnicos em processador de texto
Word (Microsoft)
5.
Os nomes dos autores devem vir justo abaixo do titulo,
em Times New Roman tamanho 11, no formato. Iniciais
dos nomes seguido por pontos com espaço entre eles e
seguido do primeiro sobrenome completo. Exemplo,
Juan Luis Arias Vargas (J. L. Arias).
6.
El abstract (um breve resumo do artigo) e Key Words
(palavras que permitem identificar a temática do artigo)
devem ser em espanhol, português e inglês, itálico e
negrito, seguidas de um travessão largo (¾, ALT+0151)
sem espaço (Abstract ¾ Key Words ¾); o texto deve
conter um paragrafo escrito em negrito, em espanhol,
português, e inglês todos em Times New Roman 9. O
resumo não deve passar de 150 palavras e não pode
conter equações, figuras, tabelas, nem referencias. Deve
proporcionar palavras chave (em ordem alfabética), até
um máximo de 10, que ajudem a identificar os temas ou
aspectos principais do artigo.
7.
Título de seção em Times New Roman 10, em versalete,
e numeradas com números romanos (I. Introdução).
8.
A primeira letra da primeira palavra do primeiro
paragrafo ( da Introdução) deve ser capitular de
tamanho de duas linhas. Exemplo:
E
STE documento proporciona um exemplo de projeto de
edição de um artigo técnico em espanhol para a Revista
IEEE América Latina. É um modelo feito com o...
9.
O conteúdo do artigo em Times New Roman 10. Cada
parágrafo começa com guia de 5 espaços (sangria), não
tem espaços entre parágrafos.
10. Título das tabelas em Times New Roman 8, maiúsculas
e com números romanos (TABELA I abaixo NOME
DA TABELA). Exemplo:
Fig. 1. Introdução magnética em função do campo magnetizante. (Nota-se
que “Fig.” Foi escrita abreviada e tem duplo espaço antes do texto)
12. As equações devem ser justificadas à esquerda e
numeradas com números árabes entre parêntesis
justificado à direita.
13. O titulo do apêndice deve ser centrado e cada um
dos apêndices justificados à esquerda, com a etiqueta
Apendice A: xxx, Apendice B: xxx.
14. As seções Referencias e agradecimentos não se
numeram, tipo de letra Times New Roman, tamanho
8 e deve seguir exatamente o modelo IEEE ou seja,
numeradas em ordem de aparição e de acordo com o
tipo de documento que esteja se referindo (ver o modelo
para cada tipo de documento: livros, artigos, paginas
web, etc.). Dentro do documento aparece por exemplo
[1] e al final na seção de REFERENCIAS o formato
deve ser:
[1]
[2]
[3]
15. O artigo deve ter as Biografias dos autores no final, seguir
o formato definido no modelo, a foto é obrigatória.
Deve vir depois das referências, sem titulo de seção.
com tipo de letra Times New Roman 8. Os nomes dos
autores com sobrenomes, em negrito. Exemplo:
tabla I
taManhos e estIlos de letra tIMes new roMan eMpregada na coMposIÇÃo
de uM artIgo coM este Modelo ou seM ele
11. As legendas das figuras devem ser escritas “FIG. 1.
xxx”, justificada à esquerda em Times New Roman 8,
terminando com o ponto; para citar as figuras no corpo
do artigo, usar “Fig. 1”. Exemplo:
O
Entre Ciencia e Ingeniería
J. F. Fuller, E. F. Fuchs, and K. J. Roesler, “influence of harmonics on
power distribution system protection.” IEEE Trans. Power Delivery,
vol. 3, no.2, pp. 549-557. Apr. 1988.
E. H. Miller, “A note on reflector arrays,” IEEE Trans. Antennas
Propagat, to be published.
R. J. Vidmar. (1992, Aug.). On the use of atmospheric plasmas as
electromagnetic refletors. IEEE Trans.Plasma Sci. [Online]. 21(3),
pp. 876-880. Disponible en:
Nikola Tesla (M’ 1888, F’17) nasceu
em Smiljan, Yugoslavia, 9 de julho de
1856. Se graduou na Escola Politécnica
Austríaca de Graz e estudou na
Universidade de Praga.
Exerceu
profissionalmente
na
American Telephone Company de
Budapeste, a Edson Machine Works,
a Westinghouse Electric Company e
os Laboratórios Nikola Tesla. Entre
seus campos de interesse estavam os
fenômenos de alta frequência.
engenheiro Tesla recebeu títulos
honrososde diversas instituições de
aprendizagem superior entre as que se encontram as universidades de
Columbia, Yale, Belgrado e Zagreb. Obteve a Medalha Elliot Cresson
137
do instituto Franklin e a Medalha Edison do IEEE. Em 1956, o
termino “tesla” (T) foi adotado como unidade de indução magnético,
ou densidade de fluxo magnético, do sistema de medidas MKSA. Em
1975 a Power Engineering Society estabeleceu o Premio Nikola Tesla
em sua honra. Tesla morreu em Nova York, 7 de janeiro de 1943.
16. Se o artigo é resultado de investigações deve levar um
pé de pagina na primeira folha na coluna da esquerda,
indicando: o nome do projeto do qual se deriva, a
faculdade ou departamento, a instituição e o grupo
de investigação qual pertence, em letra Times New
Roman tamanho 8. Igual que no conteúdo do articulo
cada paragrafo com tabulação de 5 espaço. E não tem
espaços entre parágrafos. O espaçamento entre linhas
é de 1.0. Seguido deve levar como pé de pagina na
primeira folha da coluna esquerda, a informação dos
autores na qual mencione: os nomes como aparecem
na parte superior (Iniciais dos nomes e o primeiro
sobrenome completo), seguido da afiliação laboral,
cidade-País e e-mail. Exemplo:
¹ Produto derivado do projeto de investigação “ X NOME DO
PROJETO-XXXX”. Apresentado pelo grupo de investigação X-NOME
GRUPO DE INVESTIGAÇÃO-XXXX, da faculdade ou departamento
XX-NOME DA FACULDADE-XXXX, da Universidade XXX-NOME DA
UNIVERSIDADE-XXXX.
J. L. Vargas, Magister XXXX, ensino de Universidade Católica de
Pereira, Pereira (Colombia); e-mail: [email protected]
J. V. Pedraza, PhD XXXX, ensino de Universidade Católica de Pereira,
Pereira (Colombia); e-mail: [email protected]
M. Ruiz, Magister XXXX, ensino de Universidade Católica de Pereira,
Pereira (Colombia); e-mail [email protected]
Nota: na pagina web da revista http://biblioteca.ucp.edu.co/
OJS/index.php/entrecei, pode encontrar e baixar todos os
formatos e guia para autores.
Comitê Editorial
Universidad Católica de Pereira

Documentos relacionados