facultad de ingenierías - AppServ Open Project 2.4.8

Transcripción

facultad de ingenierías - AppServ Open Project 2.4.8
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
REVISTA
INGENIERÍAS USBMed
ISSN: 2027-5846
FACULTAD DE INGENIERÍAS
Vol. 3, No. 2
Julio-Diciembre 2012
MEDELLÍN – ANTIOQUIA
1
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
INGENIERÍAS USBMed
ISSN: 2027-5846
Vol. 3, No. 2, Julio-Diciembre 2012
DIRECCIÓN
Marta Cecilia Meza P.
EDICIÓN
Wilder Perdomo Ch.
TRADUCCIÓN
Gustavo A. Meneses B.
COMITÉ EDITORIAL
Alher M. Hernández V.
Andrés M. Cárdenas T.
Beatriz L. Gómez G.
Claudia E. Durango V.
Carlos A. Castro C.
Carlos E. Murillo S.
Cristina López G.
Conrado A. Serna U.
Carolina Arias M.
Diego M. Murillo G.
Diego A. Gutiérrez I.
Darío E. Soto D.
Ever A. Velásquez S.
Fabio A. Vargas A.
Gustavo A. Acosta A.
Gustavo A. Meneses B.
Germán M. Valencia H.
Helena Pérez G.
Hernán Salazar E.
Juan R. Aguilar A.
Juan D. Lemos D.
Jesús A. Anaya A.
Jesús E. Londoño S.
José Eucario Parra C.
Jovani A. Jiménez B.
Juan C. Giraldo M.
Luis A. Muñoz
Luis A. Tafur J.
Oscar A. Cardoso G.
Ricardo Botero T.
Rob Dekkers
Rudy Cepeda G.
Sergio H. Lopera C.
Universidad de Antioquia
Universidad de San Buenaventura
Universidad de San Buenaventura
Universidad de San Buenaventura
Universidad de San Buenaventura
Cornell University
Universidad Nacional de Colombia
Universidad de San Buenaventura
Politécnico di Milano
Universidad de San Buenaventura
Instituto Tecnológico Metropolitano
Tecnológico de Antioquia
Universidad de San Buenaventura
Tecnológico de Antioquia
Politécnico Jaime Isaza Cadavid
Universidad de San Buenaventura
Universidad de San Buenaventura
Universidad de San Buenaventura
Universidad de San Buenaventura
Universidad Austral de Chile
Universidad de Antioquia
Universidad de Medellín
Universidad Católica del Norte
Universidad de San Buenaventura
Universidad Nacional de Colombia
Universidad de San Buenaventura
Instituto Tecnológico Metropolitano
University of Southampton
Universidad de San Buenaventura
Tecnológico de Antioquia
UWS Business School
University of Connecticut
Universidad Nacional de Colombia
UNIVERSIDAD DE SAN BUENAVENTURA MEDELLÍN
FACULTAD DE INGENIERÍAS
Campus Universitario: Cll. 45 61-40. Barrio Salento, Bello.
Sede Centro: Cra. 56C 51-90. San Benito, Medellín.
Teléfono: +574 514 56 00 Ext. 4164 A.A.: 5222 / 7370
[email protected]
[email protected]
DERECHOS
Creative Commons – Oppen Journal
Los autores son responsables de los contenidos y opiniones
La Revista se reserva el derecho de edición, publicación, distribución y divulgación.
2
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
CONTENIDO
Pág.
4-5
Título
Editorial
Tipo
Editorial
Evaluación analítica para la determinación de sulfatos en aguas por
método turbidimétrico modificado.
Carlos A. Severiche, Humberto González
Investigación
12-21
Propuesta de gestión de riesgos para SCADA en sistemas eléctricos.
María J. Bernal, Diego F. Jiménez
Investigación
22-30
Sistema de evaluación cualitativa a través de dispositivos móviles.
José E. Parra
Investigación
31-39
Evaluation of GCC Optimization Parameters.
Rodrigo D. Escobar, Aleyka. R. Angula, Mark Corsi.
Investigación
40-47
Retiro y autogestión del usuario en almacenes de cadena con
Directorio Activo.
Juan. F. Hincapié, Rodolfo. A. Marín, Jerry A. Murillo
Reflexión
48-53
Gestión de conocimiento: La solución para disminuir el reproceso en las
pruebas de software.
Luz. A. Perona, Juan E. Velásquez
Reflexión
54-60
Identificación, referenciación y análisis de los vectores estratégicos del
Plan Estratégico de Ciencia, Tecnología e Innovación del Tolima.
Alexis A. Aguilera.
Investigación
61-69
Framework para la computación forense en Colombia.
Andrés F. Serna, Oscar D. Marín, Juan D. Victoria.
Investigación
70-84
Aplicación de los sistemas de información geográfica para la gestión de la
malla vial de la ciudad de Medellín.
Jaime. A. Zapata, Gabriel J. Cardona.
Investigación
6-11
3
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
EDITORIAL
Investigación, Desarrollo Tecnológico e Innovación, factores para la competitividad.
En el siglo XX, la gestión de la investigación y el desarrollo (I+D) empezó a despertar atención en la
comunidad científica y empresarial, se trataba de mejorar la utilización de los recursos humanos,
económicos y materiales para la generación de conocimiento, pero años más tarde se identificó que era
necesario y prioritario innovar, de tal manera que dichos conocimientos adquiridos en la etapa de I+D
se convirtieran en nuevos productos, procesos y servicios que impactaran el mercado y generaran
rentabilidad. Si los resultados de investigación no se transforman, no existen innovaciones ni beneficios
institucionales.
Aproximadamente a principios de los ochenta, se empezó a hablar de la gestión de la tecnología y su
inclusión en la estrategia de las organizaciones. Evidentemente, la gestión de la tecnología, que intenta
mantener y mejorar la posición competitiva de las instituciones, presenta muchos puntos de contacto
con la innovación y a menudo ambas expresiones se utilizan indistintamente, ya que sus fronteras no
están perfectamente delimitadas.
La gestión de la tecnología comprende todas las actividades de gestión referentes a la identificación y
obtención de tecnologías, la investigación, el desarrollo y la adaptación de las nuevas y emergentes
tecnologías en la empresa, y también la explotación de las tecnologías para la producción de bienes y
servicios.
En la década de los noventa se redescubrió que lo más importante de la empresa no son sus recursos
materiales, sino su talento humano, dotados de conocimientos, creatividad e iniciativa. Se habla cada
vez más de las empresas basadas en conocimiento.
Este contexto de la importancia del conocimiento ha hecho que las instituciones se ocupen ahora, con
renovado interés, de cómo crearlo, utilizarlo, compartirlo o utilizarlo de manera más eficaz. Arie de
Geus, de la compañía Shell, afirma que la única ventaja competitiva sostenible consiste en aprender
más rápido que los competidores.
Nace entonces la moderna gestión del conocimiento (Knowledge Management) que puede definirse
como un proceso sistemático e integrador de coordinación de las actividades de adquisición, creación,
almacenaje y difusión del conocimiento por individuos y grupos con objeto de conseguir los objetivos de
la organización.
Es así como nuestra Revista Ingenierías USBMed, aporta a la generación y transferencia de
conocimiento generado al interior de la comunidad académica, representada por los diferentes grupos
de investigación, unidades académicas y en articulación con el sector empresarial.
De esta manera, entregamos a ustedes el Volumen 3 número 2 de nuestra Revista Ingenierías
Universidad de San Buenaventura seccional Medellín, como siempre, gratificándolos por los aspectos
más positivos y relevantes transcurridos durante el semestre y que redundan en beneficio de la
Facultad, la revista y nuestra comunidad institucional.
Para este número de la Revista, el lector encontrará sutiles cambios asociados al compromiso con el
ascenso en el escalafón Colciencias-Publindex.
4
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Nuestras instrucciones para autores cambiarán con el fin de ajustar la revista a los estándares
internacionales más comunes en publicaciones de este tipo. Se continuará apropiando el estándar IEEE
(Institute of Electrical and Electronics Engineers), por ser más apropiado y a la vez usado en los
diversos campos de la ingeniería.
Esperamos por tanto que en la medida en que continuemos con la senda de calidad que nos hemos
trazado, éste y los números sucesivos, satisfagan sus expectativas.
Wilder Perdomo Ch.
Editor
5
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
EVALUACIÓN ANALÍTICA PARA LA DETERMINACIÓN DE SULFATOS EN
AGUAS POR MÉTODO TURBIDIMÉTRICO MODIFICADO
Carlos A. Severiche
Humberto González
Aguas de Cartagena SA ESP
[email protected]
Aguas de Cartagena SA ESP
[email protected]
(Tipo de Artículo: Investigación. Recibido el 01/10/2012. Aprobado el 10/12/2012)
RESUMEN
La meta de un análisis químico de aguas es generar resultados correctos y confiables, siendo la validación de ensayos uno de
los aspectos más importantes para conseguir este propósito; además constituye un factor clave para la prestación de servicios
analíticos. La determinación de ion sulfato en aguas es una de las metodologías analíticas más discutidas que se conoce en el
ámbito científico técnico del análisis de aguas, principalmente, por las desventajas que presentan los métodos aceptados
internacionalmente (gravimétrico, turbidimétrico y cromatográfico). En el presente estudio se hizo la evaluación del método
analítico turbidimétrico, para la determinación de sulfatos en aguas; el objetivo de este trabajo fue incluir una modificación al
método estandarizado y confirmar correctamente la aplicación del método modificado para el análisis de aguas. Se trabajaron
muestras de diferentes tipos de agua: potable, residual, superficial, de pozo y de piscina, siguiéndose estrictamente los
protocolos de validación. Se encontraron resultados satisfactorios en precisión y exactitud con el fin de emitir resultados
confiables y reales de la muestra analizada.
Palabras Clave
Agua, método turbidimétrico, sulfato, validación.
ANALYTICAL EVALUATION FOR THE DETERMINATION OF SULFATE IN
WATER BY MODIFIED TURBIDIMETRIC METHOD
ABSTRACT
The goal of a chemical analysis of water is to produce accurate and reliable results, being the validation of tests one of the
most important aspects to achieve this purpose, it also constitutes a key factor in the provision of analytical services.
Determination of sulfate ion in water is one of the most discussed analytical methodologies in the scientific-technical sphere of
waters analysis, mainly because of the disadvantages of internationally accepted methods (gravimetric, turbidimetric and
chromatographic). In this study was made the evaluation of turbidimetric analytical method for the determination of sulfa te in
water, the aim was to include a modification to the standardized method and confirm the correct application of modified metho d
for water analysis. We have worked on samples of different water types: drinking water, waste water, shallow, pit and pool,
strictly complying the validation protocols. Satisfactory results were found regarding to precision and accuracy in order to give
real and reliable results for the analyzed sample.
Keywords
Water, turbidimetric method, sulfate, validation.
ÉVALUATION ANALYTIQUE POUR LA DÉTERMINATION DE SULFATES
DANS EAUX AVEC LA MÉTHODE TURBIDIMÉTRIQUE MODIFIÉE
RÉSUMÉ
Le but d’une analyse chimique d’eaux est de générer des résultats corrects et fiables, avec la validation d’essais comme une
des aspects les plus importants pour obtenir cet objectif; en plus, il constitue un facteur clé pour la prestation de services
analytiques. La détermination d’ion sulfate dans eaux est une des méthodologies analytiques les plus discutés qui est connu
sur le milieu scientifique technique de l’analyse d’eaux, essentiellement, à cause des désavantages qu’ont les méthodes
acceptés internationalement (gravimétrique, turbidimétrique et chromatographique). Dans cette étude on a évalué la méthode
turbidimétrique pour la détermination des sulfates dans eaux; le but de ce travail est d’inclure une modification sur le modèle
standard et de confirmer correctement l’application de la méthode modifiée pour l’analyse d’eaux. On a travaillé sur des
différents types d’eau: potable, résiduelle, superficielle, de puits et de piscine, en suivant strictement les protocoles de
validation. On a trouvé des résultats satisfaisants par rapport à la précision et l’exactitude pour émettre des résultats fia bles et
réels de l’échantillon analysé.
Mots-clés
Eau, méthode turbidimétrique, sulfate, validation.
6
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
El aumento en la demanda de agua potable se debe al
crecimiento demográfico mundial, al rápido desarrollo
económico y social, a la urbanización acelerada, y a las
mejoras en el nivel de vida y de los ecosistemas
circundantes [1], [2].
El control de la potabilidad y la calidad del agua es muy
importante, ya que éste es el medio de trasporte de
todas las sustancias y compuestos tanto biológicos
como fisicoquímicos [3].
Para llevar a cabo la inspección, vigilancia y control, es
necesario realizar un seguimiento de las características
fisicoquímicas y microbiológicas del proceso de
potabilización de agua y del producto terminado, con el
fin de comparar con los valores normativos [4], [5].
Los sulfatos en el agua pueden tener su origen en el
contacto de ella, con terrenos ricos en yesos, así como
por la contaminación con aguas residuales industriales;
el contenido de estos no suele presentar problemas de
potabilidad en las aguas de consumo humano, pero
contenidos superiores a 300mg/L pueden causar
trastornos gastrointestinales en los niños [6], [7]. Se
sabe que los sulfatos de sodio y magnesio tienen
acción laxante, por lo que no es deseable un exceso de
los mismos en las aguas de consumo [8], [9].
El ion sulfato es abundante en aguas naturales. Un
amplio rango de concentraciones se encuentra
presente en aguas lluvias y su determinación
proporciona valiosa información respecto a la
contaminación y a los fenómenos ambientales;
adicionalmente, puede aportar datos acerca de la
información de ácido sulfúrico proveniente del dióxido
de azufre presente en la atmósfera [3].
En el caso de las aguas duras, el sulfato junto con
otros iones ejercen un poder incrustante y de allí la
importancia de su determinación para usos industriales,
especialmente en el caso de agua para calderas, ya
que este fenómeno en dichos equipos, puede disminuir
su efectividad y por consiguiente, su tiempo de vida [6].
En lugares donde pueda aumentar la concentración de
fitoplancton, se pueden presentar zonas anaerobias
debido a la descomposición de materia orgánica, en las
que las bacterias afines al sulfato se activan [10], [11].
Estas bacterias toman el oxígeno de los sulfatos
formando sulfuro de hidrógeno, el cual es un
compuesto de olor desagradable y altamente tóxico
que elimina muchos organismos del medio, excepto las
bacterias anaeróbicas del ecosistema [10], [11], [12].
El ion sulfato precipita en medio ácido con cloruro de
bario formando cristales de sulfato de bario de tamaño
uniforme. La cantidad de cristales es proporcional a la
concentración de sulfatos en la muestra y la
absorbancia luminosa de la suspensión; se puede
medir espectrofotométricamente a 420 nm, siendo la
2concentración de SO4 determinada respecto a una
curva de calibración, según los métodos normalizados
para el análisis de aguas potables y residuales
preparados por la Asociación Americana de Salud
Pública, Asociación Americana de Trabajos del Agua,
Federación para el Control de la Polución del Agua
[13].
El método turbidimétrico permite determinar hasta 40
mg/L de sulfatos. Si la muestra presenta una
concentración mayor se debe realizar una dilución. Las
aguas con alta turbiedad han de ser tratadas
previamente por centrifugación o filtración para su
clarificación y posterior análisis. Interfiere también un
exceso de sílice superior a 500mg/L y en las muestras
con alto contenido de materia orgánica puede
dificultarse la precipitación de sulfato de bario [10], [13].
La reglamentación Colombiana especifica los criterios y
los valores respectivos para evaluar las condiciones
físicas, químicas y microbiológicas de las aguas
destinadas para consumo humano a través la
resolución 1575 del 2007, y establece como valor
máximo admisible 250mg/L para el ion sulfato [14].
En el presente trabajo se llevó a cabo la validación del
método turbidimétrico para la determinación de sulfatos
en aguas. La técnica estudiada es aplicable a un rango
2de 1 a 40mg/L SO4 , rango de interés, ya que la
mayoría de muestras analizadas en el laboratorio están
en este intervalo; se trataron los resultados de análisis
obtenidos de muestras de diferente procedencia con el
ánimo de hacer más completo el estudio.
2. MATERIALES Y MÉTODOS
El Método de referencia aplicado es el descrito en la
edición 22 de los Métodos Normalizados para el
2Análisis de Aguas Potables y Residuales 4500-SO4 E.
APHA-AWWA-WEF (2012) [13], con la modificación
soportada y desarrollada por la SOCIEDAD
AMERICANA PARA PRUEBAS Y MATERIALES
(ASTM 1995) D 516-90 [15]. A continuación se explican
las modificaciones hechas al método original, donde de
forma inicial se refiere a los reactivos donde se prepara
una sola solución acondicionadora para sulfato, esta
desviación con respecto a la preparación de la solución
acondicionadora, se sustenta en el método ASTM
(1995) [15], ya que APHA-AWWA-WEF (2012) [13],
utiliza dos soluciones acondicionadoras una para el
rango alto y otra para el bajo; la otra modificación tiene
lugar en el procedimiento, pues la lectura a 420nm se
hace con celdas de 1cm de paso óptico y no de 5cm
como plantea el método original, ya que dicho detalle
haría el método más sensible; luego se tendrían que
diluir buena parte de las muestras analizadas en forma
rutinaria, aguas crudas de captación y especialmente,
aguas potables que van a la red de distribución,
haciendo el procedimiento más tedioso y complejo;
hecho por el cual, se propone la modificación, debido al
tipo de muestras que se analizan con frecuencia en el
intervalo de 1 a 40mg/L.
Se muestra
desarrollada:
a
continuación
en
detalle
la
ruta
7
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
 Recolección y preservación:
Las muestras pueden colectarse en frascos de plástico
o vidrio. Dado que ciertas bacterias pueden reducir el
sulfato
a
sulfuro,
especialmente
en
aguas
contaminadas. Para su preservación se refrigera la
muestra a temperatura  6°C y por un período máximo
de 28 días.
 Equipos y materiales:
- Espectrofotómetro ultravioleta-visible UV-VIS para
trabajar a 420nm con celdas de 1cm de paso
óptico.
- Vidriería: vasos de precipitados, agitadores de
vidrio, volumétricos.
 Reactivos:
Para la preparación de reactivos, patrones y muestras,
se empleará agua desionizada. Todos los reactivos son
de grado analítico, excepto que se indique lo contrario.
4.
B. Verificación de la curva de calibración:
Cada vez que se analicen muestras, no es necesario
construir una nueva curva de calibración, sino verificar
la validez de la existente. En este caso, se prepara un
patrón de concentración 20,0mg/L y se lee como si
fuera muestra. Si el resultado es coincidente  10%, se
considera que la curva es válida y se procede a
preparar y leer las muestras [16]. En caso negativo,
repetir el patrón. Si el problema persiste, verificar los
reactivos, en particular, la solución madre de sulfato y,
si es necesario, prepararlos y construir una nueva
curva de calibración.
C. Determinación de sulfatos en muestras:
1.
-
-
Solución patrón de sulfato: utilizar solución trazable
de 100-1000mg/L.
Solución acondicionadora para sulfato: Esta se usa
como forma de acondicionamiento proporcionando
un medio para que los iones sulfato se mantengan
en suspensión a la hora de lectura en el
espectrofotómetro, es de gran importancia, ya que
su no uso, precipitaría todo el analito al momento
de la adición del cloruro de bario, su preparación
consta de colocar en un vaso de precipitados de 1L
en el siguiente orden y mezclando después de cada
adición: 300mL de agua, 30mL de ácido clorhídrico
concentrado (HCl), 100mL de alcohol isopropílico
(CH3-CH2OH-CH3) y 75g de cloruro de sodio (NaCl).
Finalmente añadir 50 mL de glicerol previamente
medidos en una probeta. Mezclar todo y llevar a
volumen final de 500mL con agua. Esta solución es
estable seis meses almacenada en frasco de vidrio
ámbar a temperatura ambiente [15].
Cloruro de bario dihidratado (BaCl2.2H2O):
Emplear una solución comercial trazable,
homogeneizar antes de usar.
 Procedimiento:
Las condiciones ambientales no influyen para la
realización de este ensayo.
A. Preparación de la curva de calibración:
1.
2.
3.
Pipetear volúmenes crecientes de la solución
patrón de sulfato, utilizando pipetas mecánicas
previamente calibradas o de forma alternativa
pipetas aforadas de vidrio, en volumétricos
completar con agua desionizada hasta el aforo,
para obtener al menos seis concentraciones
comprendidas en el intervalo de 0 a 40mg/L.
Transferir los patrones a vasos de precipitado de
100mL. Adicionar a cada patrón 2,5mL de solución
acondicionadora y agitar con varilla de vidrio;
adicionar una cucharilla de cristales de cloruro de
bario y agitar nuevamente en forma vigorosa.
Leer antes de 5 minutos en espectrofotómetro a
420nm con celdas de 1cm de paso óptico.
En función del espectrofotómetro utilizado, crear la
curva de calibración.
Transferir 50mL de muestra (en caso de turbiedad
evidente, centrifugarla o filtrarla) a un vaso de
precipitados de 100mL, adicionar 2,5mL de
solución acondicionadora y agitar; adicionar una
cucharilla de cristales de cloruro de bario y agitar
nuevamente en forma vigorosa.
Leer antes de 5 minutos en espectrofotómetro a 420nm
con celdas de 1cm de paso óptico respecto a la curva
de calibración de sulfato. Si la absorbancia de la
muestra resultase mayor que la del mayor patrón, es
necesario repetir el proceso mediante diluciones
sucesivas de la muestra y posterior lectura en el
equipo. Para esto, debe realizarse como mínimo dos
diluciones, se calculó el coeficiente de variación y si
éste no supera 10%, se informó el valor promedio; en
estos casos, es necesario multiplicar previamente por
el factor de dilución [16].
3. RESULTADOS Y DISCUSIÓN
De acuerdo con los protocolos de validación se
evaluaron los siguientes parámetros: límite de
cuantificación, límite de detección, precisión, exactitud,
recuperación de adiciones conocidas (exactitud en
matriz) [16], [17]. Por tratarse de un método en que se
modifica el paso de luz, no es necesario evaluar:
identificación, selectividad, especificidad ni robustez, ya
que estos parámetros no son alterados por la
modificación introducida [18].
A continuación se exponen e interpretan los resultados
obtenidos en los ensayos de validación del método,
que se realizaron siguiendo el procedimiento de
análisis referenciado. Este método fue acreditado en
2006 por el IDEAM, con base a los resultados
experimentales
que
se
presentaron
y
que
resumidamente incluían:
Exactitud:
1. Pruebas de evaluación de desempeño del IDEAM:
# 1 de 2004 y # 2 de 2005 satisfactorias (90 puntos
en cada caso)
2. PICCAP: datos de 2004, 2005 y los dos primeros
envíos de 2006: satisfactorios
8
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Pruebas de añadido-recobrado: con agua potable
(n=6) y agua cruda (n=7), recobrados de 103.8 y
102.0%, respectivamente.
salida. Para establecer la posible presencia de datos
atípicos, se aplicó el contraste estadístico de Grubbs
[16].
Precisión:
Muestra sintética de agua destilada de nivel bajo
(aproximadamente 6mg/L), analizadas 4 réplicas
durante 4 días seguidos:
En las tablas 2 y 3, se muestran datos de exactitud en
patrones de referencia y añadidos recobrados en
muestras respectivamente.
3.
Repetibilidad: 2,6-6,9% y Reproducibilidad interna:
4,7%.
En la tabla 1, se muestran datos de porcentajes de
coeficientes de variación promediados, para evidenciar
la repetibilidad del método con muestras de diferente
procedencia.
El método continuó bajo control, lo que se demuestra
en los resultados satisfactorios en:
Pruebas de desempeño del Instituto de Hidrología,
Meteorología y Estudios Ambientales IDEAM: 100
puntos (2007, 2008, 2011), 90 puntos (2009) y 80
puntos (2010).
Pruebas de desempeño del Instituto Nacional de Salud
de Colombia PICCAP: clasificado como referencia para
sulfatos durante todos estos años.
El único cambio importante ocurrió a fines de 2010, con
la entrada de un nuevo analista y la sustitución del
espectrofotómetro, siendo estas causales de una
nueva verificación del método modificado, buscando
así
pruebas
que
evidencien
repetibilidad
y
reproducibilidad.
Tabla 1. Repetibilidad para muestras de diferente
procedencia
TIPO DE
CV%
n
MUESTRA
promedio
duplicados ciegas
2,1
4
diluciones de agua
2,4
4
de piscina
diluciones de agua
3,1
15
de pozo
diluciones de agua
2,5
79
potable
diluciones de agua
3,8
2
residual
diluciones de agua
2,2
14
superficial
Los resultados descritos se obtuvieron con muestras de
agua superficial, cruda, de piscina, industrial o tratada
así como con muestras certificadas y patrones de
control interno.
Para las adiciones de concentración del analito se
utilizaron patrones y se añadieron a muestras de agua
obtenidas en la planta de tratamiento de agua potable
PTAP El Bosque: cruda del punto de llegada del agua
de la captación y potable del manhole del tanque de
Exactitud:
Pruebas de añadido-recobrado:
Se realizaron por quintuplicado a muestras de agua
cruda y tratada con adiciones de 4,96 y 9,92 mg SO4/L.
Con base a:
1. El error relativo promedio de los patrones varió
entre -3,5 y 1,1%.
2. Los recobrados estuvieron entre 94,9 y 105,0% y el
SM reporta recobrados entre 85 y 91% [13].
Tabla 2. Datos de exactitud para patrones
% Error
VECES
PATRÓN
(promedio/intervalo) ANALIZADO
muestra
certificada
0,4/-6,6 a 4,0
4
de 72.4
mg SO4/L
patrón
interno de
1,1/-8,3 a 10,7
15
5 mg
SO4/L
patrón
interno de
0,5/-5,3 a 9,0
28
20 mg
SO4/L
patrón
interno de
-3,5/-9,2 a 0,7
9
36 mg
SO4/L
Se observa que el método no presenta tendencia
alguna que indique sesgos ni errores sistemáticos
apreciables [19], debido a interferencias presentes en
la matriz de las muestras ni al proceso de análisis
mismo. Se considera satisfactoria la exactitud [16].
Tabla 3. Datos de recobrado
% recobrado
MUESTRA
(promedio/intervalo)
agua cruda + 4,96 mg
100,1/96,5-102,3
SO4/L
agua cruda + 9,92 mg
98,8/94,9-105,0
SO4/L
agua tratada + 4,96 mg
97,4/95,1-100,1
SO4/L
agua tratada + 9,92 mg
95,6/93,7-100,1
SO4/L
En la tabla 4, se muestran los datos de repetibilidad
para muestras de diferente procedencia (aguas crudas,
tratadas y piscinas).
9
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Tabla 4. Datos de repetibilidad
TIPO DE MUESTRA
CV%
agua cruda
0,9
agua cruda
4,0
agua cruda + añadido 1
2,9
agua cruda + añadido 2
3,8
agua tratada
3,1
agua tratada + añadido 1
2,2
agua tratada + añadido 2
2,7
agua superficial
0,1
agua potable de red
1,5
agua potable
1,6
agua de piscina
0,3
n
3
5
5
5
5
5
5
3
3
3
3
Precisión:
Análisis de muestras de diferente procedencia. Con
base a los contenidos de sulfatos (< 40 mg/L) y la tabla
de Horwitz, puede considerarse satisfactoria la
repetibilidad [19]. Para 16 muestras de diverso origen:
potable (5), pozo (1), industrial (2) y desconocida (8),
con contenidos entre 45-8000mg SO4/L, el CV
promedio fue de 3.4%, desviación estándar 0,3-9,1.
En las tablas 5 y 6, se muestran datos de
reproducibilidad interna para muestras y controles
internos respectivamente y el número de veces
analizadas.
Tabla 5. Datos de reproducibilidad interna para
muestras
TIPO DE
CV%
MUESTRAS
MUESTRA
agua potable
4,0-7,6
2
agua industrial
2,7-4,5
2
Para la reproducibilidad interna, se analizaron muestras
dos días diferentes no consecutivos, con patrones de
control interno. Y se considera también satisfactoria la
precisión [19].
Tabla 6. Datos de reproducibilidad interna para
patrones de control interno
Concentración
VECES
del patrón (mg
CV%
ANALIZADO
SO4/L)
5
5,7
15
20
3,6
28
36
2,7
9
Curva de calibración:
Intervalo de trabajo: 5-40mg/L
Coeficiente de correlación: 0.9999
CV método: 1.53%
Límite de detección (Xbl + 3 Sbl): 0.53 mg SO4/L
Límite de cuantificación (Xbl + 10 Sbl): 1.83 mg SO4/L
Concentración a reportar: 5.0 mg SO4/L
Dado que la legislación colombiana para agua potable
considera 250 mg/L como valor máximo aceptable para
sulfatos y que la mayoría de aguas naturales o
residuales, presentan concentraciones superiores a 5
mg/L, la concentración mínima a reportar [13], se
considera satisfactoria para el análisis de agua, pues
es 50 veces el valor máximo permisible [14].
4. CONCLUSIONES
El método estandarizado modificado presenta
adecuadas características de desempeño, al ser
preciso (coeficientes de variación <10%), veraz (no
presenta sesgo significativo), con un adecuado
intervalo de concentración y una concentración mínima
a reportar, baja (5mg/L).
Estas características permiten que el mismo se ajuste
al propósito para el cual fue diseñado, que consiste en
la determinación de sulfato en muestras de aguas de
diferente procedencia.
El usar una sola solución acondicionadora es una
ventaja en tiempo y la extensión del rango dinámico
lineal hasta 40mg/L, lo cual implica maximización de
análisis, en muestras con sulfatos en rangos rutinarios
y habituales, con un mayor volumen de capacidad.
Se vuelve un método de referencia para otros
laboratorios que deseen aplicarlo en Colombia, al estar
este parámetro acreditado ante el IDEAM, ya que
pueden reportar resultados correctos y confiables.
5. REFERENCIAS
H. Cheng, Y. Hu & J. Zhao. ¨Meeting China’s water
shortage crisis: current practices and challenges¨.
Environm. Sci. Techn. J. (USA). Vol. 43, No. 2, pp. 240244, 2009.
[2] I. Sarabia. ¨Calidad del agua de riego en suelos
agrícolas y cultivos del Valle de San Luis Potosí,
México¨. Rev. Int. Contam. Ambient. (México). Vol. 27,
No. 2, pp. 103-113, 2011.
[3] J. Arboleda. Teoría y práctica de la purificación del
agua. Colombia: Ed. Mc Graw Hill, 2000, p.31.
[4] M. Simanca, B. Álvarez & Paternina, R. ¨Calidad física,
química y bacteriológica del agua envasada en el
municipio de Montería¨. Temas Agrarios. (Colombia).
Vol. 15, No. 1, pp. 71-83, 2010.
[5] EPA. Guidelines for Water Reuse, EPA- Part III, 40 CFR,
Part 122, U.S. Environmental Protection Agency U.S.
Agency for International Development, Washington, DC,
2007, p.136.
[6] C. Orozco, A. Pérez, M. González, F. Rodríguez & J.
Alfayate. Contaminación ambiental. Una visión desde la
química. Ed. Thomson, España, 2005, pp. 631-650.
[7] D. Wilson, A. Fernández & Y. Zayas. ¨Desarrollo y
validación de un método de valoración anemométrica
para la determinación del ion sulfato en muestras de
aguas naturales y residuales¨. Rev. Cub. Qca. (Cuba).
Vol. 19, No. 2, pp. 28-33, 2007.
[8] G. Guzmán. ¨Evaluación espacio-temporal de la calidad
del agua del río San Pedro en el Estado de
Aguascalientes, México¨. Rev. Int. Contam. Ambient.
(México). Vol. 27, No. 2, pp. 89-102, 2011.
[9] F. Ríos; A. Maroto & R. Bosque. ¨La validación de
Métodos analíticos¨. Rev. Tec. Lab. (Cuba). Vol. 22, No.
252, pp.12-17, 2001.
[10] I. Aguilera; R. Perez & A. Marañon. ¨Determinación de
sulfato por el método turbidimétrico en aguas y aguas
residuales. Validación del método¨. Rev. Cub. Qca.
(Cuba). Vol. 22, No. 3, pp. 39-44, 2010.
[1]
10
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
[11] S. Stolyar et al. ¨Metabolic modeling of a mutualistic
microbial community¨. Molecular Systems Biology. Vol.
38, No. 92, pp. 1–14, 2007.
[12] P. Guevara & M. Ortiz. ¨Adaptación a microescala del
método potenciométrico con electrodo ión selectivo para
la cuantificación de fluoruro¨. Rev. Int. Contam. Ambient.
(México). Vol. 25, No. 2, pp. 87-94, 2009.
[13] APHA, AWWA, WEF. Standard Methods for the
Examination of Water and Wastewater. 22th Ed.
American Public Health Association/ American Water
Works Association/Water Environment Federation,
Washington DC, USA, 2012, pp. 4-188 y 4-190.
[14] MINISTERIO
DE
LA
PROTECCIÓN
SOCIAL,
MINISTERIO
DE
AMBIENTE
VIVIENDA
Y
DESARROLLO TERRITORIAL. Por medio de la cual se
señalan características, instrumentos básicos y
frecuencias del sistema de control y vigilancia para la
calidad del agua para consumo humano. Resolución
1575 de 2007, Bogotá, D.C.: Ministerio de la Protección
[15]
[16]
[17]
[18]
[19]
Social; Ministerio de Ambiente Vivienda y Desarrollo
Territorial, 2007.
ASTM. Standard test methods for sulfate ion in water.
Ed ASTM annual book, USA, 1995, D 516-90.
G. Cortes. Lineamientos para el control de calidad
analítica. Ed. Instituto de Hidrología, Meteorología y
Estudios Ambientales IDEAM. Colombia, 1999, p.11.
C. Cortés & R. García. Validación con base en los
criterios de aplicación de la norma NMX-EC-17025IMNC-2006 en mediciones químicas y físicas. Ed.
Entidad Mexicana de Acreditación. México, 2009, p.25.
C. Cortés. Validación de métodos. Docto. No. MPCA005-02. Ed Entidad Mexicana de Acreditación.
México, 2010, p.37.
M. Velázquez, J. Pimentel & M. Ortega. ¨Estudio de la
distribución de boro en fuentes de agua de la cuenca del
río Duero, México, utilizando análisis estadístico
multivariado¨. Rev. Int. Contam. Ambient. (México). Vol.
27, No. 1, pp. 9-30, 2011.
11
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
PROPUESTA DE GESTIÓN DE RIESGOS PARA SCADA EN SISTEMAS
ELÉCTRICOS
María J. Bernal Zuluaga
Diego F. Jimenez Mendoza
Central Hidroeléctrica de Caldas SA. Manizales
[email protected]
Universidad de San Buenaventura, Medellín
[email protected]
(Tipo de Artículo: Investigación. Recibido el 14/10/2012. Aprobado el 11/12/2012)
RESUMEN
En la actualidad los ataques cibernéticos son uno de los principales aspectos a considerar por parte de los entes
gubernamentales y por las empresas prestadoras de servicios públicos, dado que dichas entidades son el blanco preferido
para desestabilizar el normal desempeño de las actividades de un sector determinado. En particular, la prestación del servici o
eléctrico es fundamental para la operación de la mayor parte de las actividades diarias a nivel comercial, industrial y social de
nuestro país.
Los centros de control eléctricos cuentan con el Sistema SCADA para tener información en tiempo real que facilite la
supervisión, control y toma de decisiones necesarias para garantizar la seguridad y calidad en la prestación del servicio
eléctrico.
Este artículo trata de la gestión de riesgos del sistema SCADA y la definición de un plan de tratamiento en el cual se expone n
las medidas de control que deben ser implementadas para la mitigación de los riesgos a los cuales está expuesto dicho
sistema.
Palabras clave
Front End, HMI, Protocolo, RTU/IED, SCADA, Sistema Eléctrico.
RISK MANAGEMENT PROPOSAL FOR SCADA IN ELECTRICAL SYSTEMS
ABSTRACT
Nowadays cyber-attacks are one of the major concerns to be considered by government agencies and utilities because they
are sensitive targets in order to disrupt the normal performance of the activities of a particular sector. One of the most important
services is electricity because of its crucial role for commercial, industrial and social activities in our country.
In order to have real time information that make easier supervision, control and decision making for ensuring safety and quality
in the provision of electricity service, the control centers have the SCADA system (Supervisory Control And Data Acquisition).
This article deals with risk management of the SCADA system and the definition of a treatment plan which proposes control
measures that should be implemented in order to minimize the risks and attacks for the system.
Keywords
Front End, HMI, Protocol, RTU/IED, SCADA, Electric System.
UNE PROPOSITION DE GESTION DE RISQUES POUR SCADA DANS
SYSTÈMES ÉLECTRIQUES
Résumé
Aujourd’hui les attaques cybernétiques sont une des aspects essentiels à considérer par les organismes gouvernementaux et
par les services publics, étant donné que ces organismes sont un point de mire pour déstabiliser la performance normal des
activités d’un secteur particulier. De manière ponctuelle, le service électrique est fondamental pour le fonctionnement de la
plupart des activités quotidiennes à l’échelle commercial, industrielle et social de notre pays.
Les centres de contrôle électrique ont le système SCADA pour avoir information en temps réel pour faciliter la surveillance, le
contrôle et la prise des décisions nécessaires pour garantir la sécurité et qualité dans les services publics.
Cet article s’occupe de la gestion de risques du système SCADA et de la définition d’un plan d’un traitement dans lequel on
expose les mesures de contrôle qu’on doit implémenter pour la mitigation des risques pour le système.
Mots-clés
Front-end, Interface Homme-Machine (HMI), Protocole, Unité terminale distante/Dispositif Electronique intelligent (RTU/IED),
Télésurveillance et acquisition de données (SCADA), Système électrique.
12
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
Un Centro de control Eléctrico es el responsable de la
operación y supervisión coordinada en tiempo real de
las instalaciones de generación y de transporte del
sistema eléctrico. Para que exista un equilibrio
constante entre la demanda y la oferta de energía, se
requiere realizar previsiones de demanda y mantener
márgenes de generación suficientes para hacer frente
a posibles cambios del consumo previsto [1].
Para cumplir con lo anterior y garantizar la seguridad y
calidad del suministro eléctrico, los centros de control
deben operar sin interrupción el sistema de producción
y transporte de energía por medio de los Sistemas
SCADA (Supervisory Control And Data Acquisition).
El sistema SCADA utiliza equipos de cómputo y
tecnologías de comunicación para automatizar el
monitoreo y control de procesos industriales. Estos
sistemas son parte integral en la mayoría de los
ambientes industriales complejos y geográficamente
dispersos, ya que pueden recoger la información de
una gran cantidad de fuentes muy rápidamente y
presentarla al operador en una forma amigable.
La importancia de los sistemas SCADA en el control de
servicios como la energía eléctrica hace que se
conviertan en sistemas estratégicos o incluso en
sistemas dignos de ser considerados como de
seguridad nacional, ya que una falla en ellos puede
acarrear consecuencias catastróficas para una región e
incluso para un país, con pérdidas económicas,
pérdidas de imagen, implicaciones legales y afectación
ambiental, entre otras [2].
Este articulo tiene como objetivo comprender el
sistema SCADA, identificar y valorar los activos de
información que lo componen y proponer una gestión
de riesgos que nos da como resultado un plan de
tratamiento, en el cual se describen los controles que
ayudan a prevenir, detectar y mitigar dichos riesgos.
2. SCADA Y SUS ELEMENTOS PRINCIPALES
El SCADA consiste típicamente en una colección de
equipos de cómputo conectados vía LAN donde cada
máquina realiza una tarea especializada, como es la
recolección de datos, la visualización y así
sucesivamente. Para alcanzar un nivel aceptable de
tolerancia de fallas con estos sistemas, es común tener
computadores SCADA redundantes operando en
paralelo en el centro de control. El SCADA de los
sistemas eléctricos recibe toda la información de las
subestaciones, se comprueba el funcionamiento del
sistema eléctrico en su conjunto y se toman las
decisiones para modificarlo o corregirlo si es del caso.
se comunique con los instrumentos. Es una unidad
independiente (stand−alone) de adquisición y control de
datos, cuya función es controlar el equipamiento del
proceso en el sitio remoto, adquirir datos del mismo
explorando las entradas de información de campo
conectadas con ellos y transferirlos al sistema central
SCADA [3].
Las RTU's tienen la capacidad de comunicarse por
radio, microonda, satélite, fibra óptica, etc., y algunos
estándares de comunicación han comenzado
recientemente a emerger para RTU's, como son el
DNP3 e IEC60870-5-104.
Las RTU´s han evolucionado a IED´s que
corresponden a dispositivos electrónicos inteligentes
capaces de supervisar y controlar procesos con
funciones de Interfaz ser humano y máquina (HMI) y
comunicación a sistemas superiores, es decir, sistemas
SCADA sobre los estándares de comunicación
mencionados.
Entre los elementos que las RTU’s/IED’s supervisan a
nivel eléctrico son:
- Transformador de potencia
- Interruptor
- Seccionador
- Transformador de potencial
- Transformador de corriente
2.2. Master Terminal Unit (MTU) o HMI en
Subestaciones y en Estación Principal
La parte más visible y "centro neurálgico" del sistema
es llamado Master Terminal Unit (MTU) o Interfaz ser
humano y máquina (HMI − Human Machine Interface),
cuyas funciones principales son recolectar datos de las
RTU’s o IED’s, salvar los datos en una base de datos,
ponerlos a disposición de los operadores en forma de
gráficos, analizar los datos recogidos para ver si han
ocurrido condiciones anormales, alertar al personal de
operaciones sobre las mismas, generar los informes
requeridos y transferir los datos hacia y desde otros
sistemas corporativos.
La MTU de SCADA se puede ejecutar en la mayoría de
las plataformas y su tendencia es migrar hacia
estándares abiertos como ODBC, INTEL PCs,
sistemas estándares de gráficos y sistemas de
computación corrientes.
La mayoría de los soluciones SCADA cuentan con HMI
en las subestaciones (S/E) y HMI en el Centro de
Control o Estación principal. Normalmente, los IED se
comunican al HMI de S/E los que a su vez se
comunican con el HMI principal.
Los principales elementos que componen los Sistemas
SCADA son:
2.1. Remote Terminal Units (RTU´s) o Estaciones
remotas o Intelligent Electronics Device (IED’s)
La RTU es un pequeño y robusto computador que
proporciona inteligencia en el campo para permitir que
13
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
de señales eléctricas por mensajes, que envían
información digital o análoga.
Las tendencias en la automatización de las compañías
eléctricas, especialmente de las subestaciones,
convergen en una arquitectura de comunicaciones
común con el objetivo de tener la interoperabilidad
entre una variedad de IEDs encontrados en las
subestaciones, que puede:
Fig. 1. Estructura de los sistemas SCADA [4]
2.3. Procesadores de Comunicaciones Front End
La interfaz a la red de comunicaciones es una función
asignada a un computador llamado Front End, el cual
maneja toda la interconexión especializada a los
canales de comunicaciones y realiza la conversión de
protocolos de modo que el sistema principal pueda
contar con datos en un formato estándar.
Debido a que los SCADA cubren áreas geográficas
grandes, normalmente depende de una variedad de
sistemas de comunicación: LAN normalmente
confiables y de alta velocidad, y WAN menos
confiables y de más baja velocidad; por lo que se han
desarrollado técnicas para la transmisión confiable
sobre diferentes medios. Los progresos recientes han
considerado la aparición de un número apreciable de
protocolos "abiertos".
2.4. Aplicaciones especiales
Casi todos los sistemas SCADA tienen software de
aplicación especial, asociado generalmente al
monitoreo y al control.
3. PROTOCOLOS DE COMUNICACIÓN DEL SCADA
Los protocolos utilizados van de acuerdo con cada uno
de los medios disponibles en la comunicación. Algunos
de los más comunes son:
3.1. Protocolo IEC 61850
La norma IEC 61850 es un estándar internacional de
comunicación para subestaciones automatizadas que
se extiende a otros elementos del sistema eléctrico. El
objetivo de la norma IEC 61850 es comunicar IEDs de
diferentes fabricantes buscando interoperabilidad entre
funciones y elementos, y la armonización de las
propiedades generales de todo el sistema. Para
lograrlo, la norma no solo define las comunicaciones,
sino que también define un lenguaje de configuración
del
sistema,
condiciones
ambientales
y
especificaciones de calidad de los equipos, y
procedimientos para probar equipos.
La norma IEC 61850 adopta como red de área local la
red Ethernet y define diversos niveles lógicos y físicos
en una subestación, como nivel estación, nivel campo y
nivel proceso, no define ninguna topología en particular
[5].
La posibilidad de implementar una instalación bajo IEC
61850, permite reducir el cableado entre los distintos
aparatos de maniobra y protección, debido al remplazo
- Desarrollar un estándar internacional para las
comunicaciones en el interior de una subestación
automatizada.
- Conseguir interoperabilidad entre equipos de
diferentes proveedores.
- Permitir la comunicación cerca de los equipos de
potencia.
- Reducir el cableado convencional.
3.2. Protocolo Distributed Network Protocol - DNP3
La telemetría de radio es probablemente la tecnología
base de SCADA. Una red de radio típica consiste en
una conversación a través del repetidor situado en
algún punto elevado y un número de RTU's que
comparten la red. Todas las RTU's "hablan" sobre una
frecuencia (F1) y escuchan en una segunda frecuencia
(F2). El repetidor escucha en F1, y retransmite esto en
F2, de modo que una RTU que transmite un mensaje
en F1, lo tiene retransmitido en F2, tal que el resto de
RTU's pueda oírlo. Los mensajes del Master viajan
sobre un enlace de comunicación dedicado hacia el
repetidor y son difundidos desde el repetidor en F2 a
todas las RTU's. Si el protocolo de comunicaciones
usado entre el Master y el repetidor es diferente al
usado en la red de radio, entonces debe haber un
"Gateway" en el sitio del repetidor [6].
DNP3 se ha utilizado con éxito sobre la red de radio,
que encapsulado en TCP/IP, permite que una red de
fines generales lleve los datos al Master. DNP3 es un
protocolo SCADA moderno, en capas, abierto,
inteligente, robusto y eficiente, que puede [3]:
- Solicitar y responder con múltiples tipos de dato en un
solo mensaje.
- Segmentar mensajes en múltiples frames para
asegurar excelente detección y recuperación de
errores.
- Incluir en una respuesta, sólo datos cambiados.
- Asignar prioridad a los ítems de datos y solicitarlos
periódicamente basado en su prioridad.
- Responder sin solicitud previa.
- Utilizar sincronización de tiempo con un formato
estándar.
- Permitir múltiples operaciones punto a punto y al
Master.
- Permitir objetos definibles por el usuario incluyendo
transferencia de archivos.
14
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
A continuación veremos la relación entre el modelo de
capas OSI y el Enhanced Performance Architecture
(EPA) del protocolo DNP3.
Fig. 2. Relación Modelo OSI y el Enhanced performance
Architecture (EPA) del DNP3. Fuente: Practical Industrial
Data Communications [3]
El siguiente gráfico presenta el frame del Protocolo
DNP3:
Fig. 4. Arquitecturas de los Protocolos IEC 101 e IEC 104.
Fuente: Practical Industrial Data Communications [3]
La Fig. 5 muestra la relación entre el modelo de capas
OSI y el Enhanced Performance Architecture (EPA) del
protocolo IEC 104:
Fig. 3: Frame Format Protocolo DNP3. Fuente: Practical
Industrial Data Communications [3]
3.3. Protocolo IEC 60870-5-104
El protocolo IEC 60870-5-104 o IEC 104 es un estándar
basado en el IEC 60870-5-101 o IEC 101. Utiliza la
interfaz de red TCP/IP para disponer de conectividad a
la red LAN y para conectarse a la WAN. La capa de
aplicación IEC 104 se conserva igual a la de IEC 101
con algunos de los tipos de datos y los servicios
utilizados.
Generalmente para los sistemas de energía, se utiliza
el protocolo IEC 104 para el centro de control y el
protocolo IEC 101 para la interacción con los IEDs.
Fig. 5. Relación Modelo OSI y el EPA del IEC 104. Fuente:
Practical Industrial Data Communications [3]
La Fig. 6 y la Fig. 7 nos permiten ver el campo de
control del protocolo IEC-104 en transmisiones
balanceadas y no balanceadas:
La ventaja más grande del protocolo IEC 60870-5-104
es que habilita la comunicación a través de una red
estándar y permite la transmisión de datos simultáneos
entre varios dispositivos y servicios, debido a que el
protocolo IEC 60870-5-104 define el uso de una red
TCP como medio de comunicación [7].
La Fig. 4 muestra las arquitecturas de los protocolos
IEC 101 y IEC 104.
Fig. 6. Control field – balanced transmission. Fuente:
Practical Industrial Data Communications [3]
15
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Los activos se valoran con base en los elementos
principales para la seguridad de la información:
Confidencialidad,
Integridad,
Disponibilidad,
Trazabilidad y No repudio.
La valoración de los activos se puede realizar de
acuerdo con la siguiente Tabla:
Tabla I. Valoración de Activos
VALORACION DE ACTIVOS
CATASTROFICO
MAYOR
Fig. 7. Control field – unbalanced transmission. Fuente:
Practical Industrial Data Communications [3]
MODERADO
4. IDENTIFICACIÓN Y VALORACIÓN DE ACTIVOS
INSIGNIFICANTE
MENOR
DE INFORMACIÓN
Los activos más importantes a tener en cuenta para el
análisis de riesgos para un sistema SCADA son los
siguientes: IED, HMI en S/E (HMI S/E), HMI en
principal (HMI P/L), Front End (FE) y Protocolos (PT).
En la Tabla II se presenta el resultado de esta
valoración y su correspondiente justificación.
Tabla II Identificación y Valoración de Activos de Información
Activo
IED
HMI S/E
HMI
Principal
Front End
Confidencialidad
Valoración
Justificación
Disponibilidad
Valoración
Justificación
Trazabilidad
No Repudio
Valoración Justificación
Valoración
Catastrófico
Por ser la unidad básica
de recepción/envió de
Moderado
información, su integridad
es de muy alta valoración.
Los cambios en IED
Indisponible la supervisión
realizados deben ser
sobre el elemento o la
registrados para
Catastrófica
Menor
función que realice el
determinar los cambios
elemento indisponible
a efectuar en HMI S/E y
HMI Principal
Moderado
Si su funcionamiento no
es adecuado se realiza
manejo del IED
directamente
Mayor
La supervisión y control
de la S/E se hace muy
dispendiosa y la
información no estaría
disponible
Los cambios en HMI
S/E realizados deben
ser registrados para
Catastrófica
Menor
determinar los cambios
a efectuar en IED y HMI
Principal
Mayor
Si su funcionamiento no
es adecuado se realiza
manejo del HMI de todas
las S/E o IED
directamente
Catastrófica
La supervisión y control
del Sistema eléctrico no
podría realizarse.
Los cambios en HMI
principal realizados
deben ser registrados
Catastrófica
para determinar los
cambios a efectuar en
IED y HMI de S/E
Información operativa
convencional que no
merece ser confidencial
Mayor
Si su funcionamiento no
es adecuado se realiza
manejo del HMI de todas
las S/E o IED
directamente
Catastrófica
La supervisión y control
del Sistema eléctrico no
podría realizarse.
Los cambios en Front
End realizados deben
ser registrados para
Catastrófica
Menor
determinar los cambios
a efectuar en HMI
Principal y HMI de S/E
Protocolos utilizados son
estándares
Menor
Los protocolos utilizados
son confiables
Insignificante
No aplica el concepto de
disponibilidad
Menor
Moderado
Información operativa
convencional que no
merece ser confidencial
Moderado
Información operativa
convencional que no
merece ser confidencial
Moderado
Información operativa
convencional que no
merece ser confidencial
Moderado
Protocolos Insignificante
Integridad
Valoración Justificación
5. IDENTIFICACIÓN Y VALORACIÓN DE RIESGOS
Al igual que los activos, los riegos deben ser
identificados y valorados con base en los elementos
principales para la seguridad de la información:
Confidencialidad,
Integridad,
Disponibilidad,
Trazabilidad y No repudio.
En este paso se determinan los riesgos con base en
las vulnerabilidades que se tienen y que son explotadas
por las amenazas.
La valoración se identifica con los siguientes símbolos y
colores:
No se ha visto la
necesidad de verificar
logs de estos
protocolos
Menor
Insignificante
Justificación
Los cambios y quien los
realiza en IED deben ser
registrados, Pero estas
actividades son
realizadas por personal
especializado y su
responsabilidad
formalizada.
Los cambios y quien los
realiza en HMI S/E
deben ser registrados,
Pero estas actividades
son realizadas por
personal especializado
y su responsabilidad
formalizada.
Los cambios y quien los
realiza en HMI Principal
deben ser registrados,
Pero estas actividades
son realizadas por
personal especializado
y su responsabilidad
formalizada.
Los cambios y quien los
realiza en Front End
deben ser registrados,
Pero estas actividades
son realizadas por
personal especializado
y su responsabilidad
formalizada.
No aplica el concepto de
no repudio
Tabla III Valoración de Riesgos
IA
INACEPTABLE
ID
INADMISIBLE
TO
TOLERABLE
AC
ACEPTABLE
Las Tablas IV, V, VI y VII presentan el resultado de la
valoración de riesgos de acuerdo con su
confidencialidad, integridad, disponibilidad y trazabilidad
correspondientemente.
La valoración de riesgos según la característica de “No
Repudio” no se considera en este punto, debido a que
en la valoración de activos esta característica dio
menor e insignificante.
16
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Tabla IV Valoración del Riesgo – Pérdida de
Confidencialidad del Activo
Tabla VII Valoración del Riesgo – Pérdida de Trazabilidad
del Activo
VALORACION RIESGO - PERDIDA DE CONFIDENCIALIDAD DEL ACTIVO
HMI HMI
VULNERABILIDAD
AMENAZA
IED
FE PT
S/E P/L
Abuso de Privilegios
IA
TO TO
Controles inadecuados Acceso no autorizado
IA
IA IA
de acceso físico/lógico Escaneos de red (I)
IA
IA
Análisis de trafico
IA
Abuso de privilegios
IA
TO IA
Acceso no autorizado
IA
IA
IA IA
Configuración incorrecta
Escaneos de red (I)
IA
ID
o Inadecuada
Análisis de trafico
IA
IA
Escapes de información
IA
Divulgación de
IA
información
Poca conciencia sobre
Ataque de ingeniería
la seguridad de la
IA
social
información
Fuga/Robo de
IA
información
Inadecuado
procedimiento de
actualizaciones de
seguridad y antivirus
Errores del administrador
Vulnerabilidad de
programas
Difusión sw dañino
IA
IA
TO
IA
IA
IA
Tabla V Valoración del Riesgo – Pérdida de Integridad
del Activo
VALORACION RIESGO - PERDIDA DE INTEGRIDAD DEL
HMI
VULNERABILIDAD
AMENAZA
IED
S/E
Abuso de Privilegios
IA
IA
Acceso no autorizado
IA
ID
Ataque dirigido
IA
ID
Controles inadecuados de
Manipulación de la
acceso físico/lógico
ID
configuración
Manipulación de
IA
programas
Errores de administrador
IA
ID
Abuso de privilegios
IA
IA
Acceso no autorizado
IA
Difusión sw dañino
ID
Configuración incorrecta o
Fallas de software
ID
Inadecuada
Errores de los usuarios
Fallas de hardware
Ataque dirigido
Vulnerabilidad de los
programas
Acceso no autorizado
ID
Inadecuados esquemas de
Abuso de privilegios
IA
reposición de activos
Ataque dirigido
ID
obsoletos
Difusión sw dañino
ID
Fallas de hardware
Insuficientes o inadecuados
Degradación de los
mantenimientos predictivos,
soportes de
preventivos y/o correctivos
almacenamiento
ACTIVO
HMI
FE
P/L
IA
ID
ID
ID
ID
PT
TO
IA
TO
IA
ID
IA
IA
ID
ID
IA
IA
IA
IA
ID
ID
IA
ID
IA
ID
ID
ID
ID
ID
ID
ID
Tabla VI Valoración del Riesgo – Pérdida de
Disponibilidad del Activo
VALORACION RIESGO - PERDIDA DE DISPONIBILIDAD DEL ACTIVO
VULNERABILIDAD
Controles inadecuados de
acceso físico/lógico
Configuración incorrecta o
Inadecuada
Insuficiente protección contra
virus y código malicioso
Punto único de fallo
Insuficientes o inadecuados
mantenimientos predictivos,
preventivos y/o correctivos
HMI HMI
FE PT
S/E P/L
AMENAZA
IED
Abuso de privilegios
Acceso no autorizado
Denegación de
Servicios
Ataque dirigido
Acceso no autorizado
Ataque dirigido
Caída del sistema por
agotamiento de
recursos
Denegación de
servicios
Fallas de sw
Vulnerabilidad de los
programas
Denegación de
servicios
Fallas de hardware
Caídas del sistema por
agotamiento de
recursos
Ataque dirigido
Fallas de hardware
Degradación de los
soportes de
almacenamiento
Avería de origen
físico/lógico
IA
ID
IA
ID
IA
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
IA
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
ID
VALORACION RIESGO - PERDIDA DE TRAZABILIDAD DEL ACTIVO
HMI HMI
AMENAZA
IED
FE
PT
S/E P/L
Fallas de hardware IA
Errores de
IA
IA
ID
IA
IA
administrador
Acceso no
IA
IA
autorizado
Ataque dirigido
IA
Abuso de privilegios
IA
Escasos registros en logs o
Manipulación de la
variables auditables
IA
IA
configuración
Errores de
IA
configuración
Errores de
IA
monitorización
Destrucción de
IA
ID
información
VULNERABILIDAD
Pocos mecanismos de
control y Monitoreo
Errores de
administrador
Errores de
configuración
Ataque dirigido
Errores de
monitorización
IA
IA
ID
IA
ID
ID
ID
IA
IA
IA
IA
6. PLAN DE TRATAMIENTO Y CONTROLES
La Tabla VIII nos permite ver cada uno de los controles
propuestos para mitigar los riesgos detectados.
Al igual que para cualquier sistema, el aseguramiento
de los sistemas SCADA es un proceso continuo y
permanente. Día a día aparecen nuevas amenazas que
deben ser analizadas y revisadas frente a las
vulnerabilidades del sistema. Así mismo, se debe ser
consiente que la implementación de los controles no es
solo una actividad puntual, sino un proceso que debe
ser implementado gradualmente y en diferentes fases.
A continuación son descritos los controles definidos
para los sistemas SCADA y que pueden ser
considerados de acuerdo con la gestión de riesgos que
se presenta en este artículo, teniendo en cuenta que
algunas medidas mitigan más de un escenario de
riesgo.
Para limitar las conexiones al SCADA con el fin que
únicamente las necesarias se lleven a cabo, se debe
restringir el acceso lógico e implementar una
arquitectura de red segura, que incluya, al menos: la
Segmentación de redes de modo que cada subred
tenga un propósito específico y ofrezca acceso solo a
aquellos usuarios que lo requieran, la instalación de un
Firewall para habilitar única y exclusivamente las
conexiones necesarias, denegando todo el tráfico que
no haya sido autorizado explícitamente, la Instalación
de un Sistema de Detección de Intrusos y/o Sistema
de Prevención de Intrusos - IDS/IPS en la red que
permita detectar situaciones anómalas a partir de
patrones de funcionamiento de la red SCADA, solución
que también puede ser complementada incluyendo la
solución de HIPS (el mismo IPS a nivel de equipo o
host). Además, la implementación de una Solución
Network Access Control – NAC para control de
acceso a la red a través de políticas, incluyendo
condiciones de admisión, chequeo de políticas de
seguridad en el usuario final (antivirus actualizado,
sistema operativo parcheado, etc.) y controles sobre
ID
17
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
los recursos a los que pueden acceder en la red los
usuarios y dispositivos, y lo que pueden hacer en ella
[4].
Para monitorear el acceso a los activos de la red
SCADA, se debe contar con un
Sistema SOC
(Security Operation Center) y un correlacionador de
eventos, donde se centralicen, estandarice y
relacionen logs, se haga tratamiento a situaciones
anómalas y se identifiquen y manejen oportunamente
los incidentes de seguridad.
Para eliminar lo que se denomina puntos únicos de
fallo, se deben considerar Sistemas redundantes cuya
disponibilidad se considere esencial para el SCADA en
caso de que ocurra un fallo lógico o físico, sin
prescindir de los esquemas de mantenimiento
preventivo y correctivo para la prevención y atención
de cualquier daño a los activos.
Un factor y no menos importante para la seguridad del
sistema y una adecuada toma de decisiones es el
Entrenamiento al personal que maneja el SCADA. La
capacitación debe incluir temas de seguridad física y
lógica, informática y telecomunicaciones. Cursos o
sesiones de concienciación sobre seguridad son claves
para fomentar una cultura de seguridad entre los
empleados. Igualmente se debe considerar este
aspecto al momento de contratar el personal, con el fin
de tener parámetros claros sobre capacidad de
actuación tanto profesional como ética.
Dado que la seguridad no es exclusivamente un
problema técnico, es necesario desarrollar e implantar
adecuadamente políticas y procedimientos por medio
de los cuales se implementan y evalúan los controles:
Auditorias de seguridad y procedimientos para la
revisión de registros de auditoria y monitorización:
se debe definir y establecer una serie de auditorías de
seguridad periódicas que afecten los sistemas SCADA,
los elementos de red y las comunicaciones, así como
su alcance y enfoque. Adicionalmente formalizar el
procedimiento de revisión de los registros de auditoría y
de monitorización de la red, con el objetivo de detectar
anomalías, ya sean funcionales o de seguridad. En
este punto, vale la pena mencionar que se deben tomar
medidas para la protección de archivos incluidos los
registros
de
auditoria.
Procedimiento
para
administración de roles y privilegios: esta
administración se debe realizar de acuerdo con la
segregación de funciones y responsabilidades de cada
empleado, para minimizar la posibilidad de ocurrencia
de errores humanos y de ataques internos, y también
facilitar la trazabilidad de las acciones en caso de un
incidente. Procedimiento de pruebas y control de
cambios: define los pasos a seguir a la hora de
afrontar cambios en los activos de información y
pruebas de validación antes de aplicarlos en
producción, lo que amerita contar con entornos de
pruebas diferentes a los entornos productivos.
Procedimiento de aplicación de actualizaciones
(parches): establece los requisitos y pasos a seguir
para la aplicación de parches de seguridad. Es
imprescindible aplicarlo en un entorno de pruebas para
detectar posibles conflictos o malfuncionamientos en el
sistema como consecuencia de dicha aplicación.
Procedimiento de control de accesos físicos: este
procedimiento debe establecer, al menos, los
siguientes aspectos: requisitos para conceder acceso
físico a las instalaciones, registro de datos del
personal, identificación del personal, personal que
autoriza el acceso y periodo de validez de la
autorización.
Aunque idealmente las redes SCADA deberían
permanecer aisladas, se recomienda realizar
aseguramiento de los accesos remotos para evitar
accesos no autorizados. En todo caso, se deben utilizar
Protocolos
Seguros
que
cifren
todas
las
comunicaciones con algoritmos robustos, empleando
claves complejas y tunelizando todo el tráfico relativo al
acceso
remoto.
Adicionalmente,
emplear
un
mecanismo de acceso y autenticación fuerte de
doble factor.
Una medida que se debe aplicar antes de realizar el
despliegue de una aplicación, sistema operativo o
equipo en el entorno productivo, es la realización de un
aseguramiento de dicho elemento, es decir la tarea de
configuración segura del nuevo elemento. Los
parámetros de aseguramiento de los activos son las
denominadas líneas base de seguridad cuyo objetivo
es que ese elemento cuente con un nivel de seguridad
razonable, sin que por ello se vea afectada su
funcionalidad. Este proceso de aseguramiento suele
contar al menos con: Eliminación o desactivación de
servicios innecesarios y/o inseguros, sustitución de
cuentas por defecto por cuentas personales y
biunívocas, alteración de la configuración por defecto,
eliminando aquellos valores que sean considerados
inseguros, activación de mecanismos y controles de
seguridad, como puede ser el establecimiento de una
política de contraseñas robustas y la configuración de
la ejecución de actualizaciones automáticas. Para la
construcción y aplicación de las líneas base de
seguridad se pueden utilizar como base y referencia las
guías de buenas prácticas y seguridad que ofrecen
organizaciones especializadas, teniendo en cuenta
también las necesidades operativas del sistema
SCADA.
Debido a la constante evolución que sufren los
sistemas de información, y concretamente
el
surgimiento de amenazas relativas a la infección con
malware, la Implementación de sistemas de
antimalware y actualización de firmas de los
antivirus, es un control esencial para los Sistemas
SCADA. Así como lo hemos mencionado, realizando
las pruebas correspondientes que garanticen que las
aplicaciones no tienen inconvenientes con estas firmas.
De igual manera y debido al desarrollo de la tecnología,
es necesario asumir programas de renovación
tecnológica, tanto a nivel de hardware como de
software, que ofrezcan más funcionalidades y mayor
seguridad. Estos programas de renovación deberán ser
18
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
sustentados con base en los resultados que arrojen los
análisis de capacidad y rendimiento de los equipos y
aplicativos que deben realizarse con anterioridad, con
el objetivo que cumplan con los requerimientos del
sistema.
Tabla VIII - Identificación De Riesgos y Controles
Riesgo
Activo
Amenaza
Ataque Dirigido
Vulnerabilidad
Controles inadecuados de
acceso físico/lógico a un activo
de información
Caída del sistema por agotamiento de recursos
- Análisis de capacidad y rendimiento
Denegación de servicio
- Entrenamiento al personal
Configuración incorrecta o
inadecuada
Pérdida de
disponibilidad
del hardware
Front End
Ataque Dirigido
- Implementación IPS y HOST IPS
- Implementación de firewall
- Segmentación de Red en VLANS
- Utilización Protocolos seguros
- Implementación de Control de acceso a la Red - NAC
Falla del Hardware
- Sistemas redundantes
Caída del sistema por agotamiento de recursos
- Análisis de capacidad y rendimiento
Punto único de fallo
Ataque Dirigido
Falla del Hardware
Degradación de los soportes de
almacenamiento
Insuficientes o inadecuados
mantenimientos predictivos,
preventivos y/o correctivos
Avería de origen físico o lógico
Acceso no autorizado
Pérdida de
disponibilidad
del hardware
Configuración incorrecta o
inadecuada
- Esquemas de mantenimiento preventivo y correctivo
- Sistema de autenticación fuerte
- Procedimiento de control de accesos físicos
- Administración de roles y privilegios
- Entrenamiento al personal
Acceso no autorizado
- Sistema de autenticación fuerte
- Procedimiento de control de accesos físicos
- Administración de roles y privilegios
IED
Ataque Dirigido
Controles inadecuados de
acceso físico/lógico a un activo
de información
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Sistema de autenticación fuerte
- Administración de roles y privilegios
Controles inadecuados de
acceso físico/lógico a un activo
de información
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Denegación de servicio
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Acceso no autorizado
- Sistema de autenticación fuerte
- Administración de roles y privilegios
HMI
Principal
Ataque Dirigido
Configuración incorrecta o
inadecuada
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Denegación de servicio
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Falla del Software
- Implementación de sistemas de antimalware
- Esquemas de pruebas y control de cambios
Insuficiente protección contra
virus y código malicioso
Vulnerabilidades de los programas (software)
- Implementación de sistemas de antimalware
- Esquemas de pruebas y control de cambios
- Procedimiento de aplicación de parches
Denegación de servicio
- Implementación de sistemas de antimalware
Acceso no autorizado
- Sistema de autenticación fuerte
- Administración de roles y privilegios
Ataque Dirigido
HMI S/E
- Esquemas de mantenimiento preventivo y correctivo
- Programas de renovación tecnológica
Acceso no autorizado
Pérdida de
disponibilidad
del software
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Denegación de servicio
Denegación de servicio
Pérdida de
disponibilidad
del software
CONTROLES
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Controles inadecuados de
acceso físico/lógico a un activo
de información
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Denegación de servicio
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Caída del sistema por agotamiento de recursos
- Entrenamiento al personal
Acceso no autorizado
- Sistema de autenticación fuerte
- Administración de roles y privilegios
Ataque Dirigido
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Denegación de servicio
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Falla del Software
- Implementación de sistemas de antimalware
- Esquemas de pruebas y control de cambios
- Procedimiento de aplicación de parches
Configuración incorrecta o
inadecuada
Vulnerabilidades de los programas (software)
Denegación de servicio
Insuficiente protección contra
virus y código malicioso
- Implementación de sistemas de antimalware
- Esquemas de pruebas y control de cambios
- Procedimiento de aplicación de parches
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
19
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Tabla VIII - Identificación de Riesgos y Controles
Activo
Pérdida de la
confidencialidad
del hardware
Amenaza
Vulnerabilidad
Configuración incorrecta o
inadecuada
Front End
Escaneo de red
Manipulación de la configuración
Controles inadecuados de
acceso físico/lógico a un
activo de información
Falla del Hardware
Ataque Dirigido
Front End
Acceso no autorizado
Inadecuados esquemas
periódicos de reposición de
Activos Obsoletos
Ataque Dirigido
Falla del Hardware
Degradación de los soportes de
almacenamiento
Insuficientes o inadecuados
mantenimientos predictivos,
preventivos y/o correctivos
Manipulación de la configuración
Acceso no autorizado
Manipulación de programas
Pérdida de la
integridad del
software
HMI
Principal
Controles inadecuados de
acceso físico/lógico a un
activo de información
- Programas de renovación tecnológica
- Sistema de autenticación fuerte
- Administración de roles y privilegios
- Esquemas de pruebas y control de cambios
- Esquemas de pruebas y control de cambios
- Sistemas Redundantes
Errores del administrador
Configuración incorrecta o
inadecuada
- Entrenamiento al personal
- Esquemas de pruebas y control de cambios
Difusión de software dañino
- Implementación de sistemas de antimalware
Acceso no autorizado
- Sistema de autenticación fuerte
- Administración de roles y privilegios
Acceso no autorizado
- Implementación de sistemas de antimalware
Inadecuados esquemas
periódicos de reposición de
Activos Obsoletos
Falla del Software
Errores del administrador
- Sistema de autenticación fuerte
- Administración de roles y privilegios
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Esquemas de pruebas y control de cambios
Controles inadecuados de
acceso físico/lógico a un
activo de información
Ataque Dirigido
Configuración incorrecta o
inadecuada
- Sistema de autenticación fuerte
- Administración de roles y privilegios
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Esquemas de pruebas y control de cambios
- Sistemas Redundantes
- Entrenamiento al personal
- Esquemas de pruebas y control de cambios
Difusión de software dañino
- Implementación de sistemas de antimalware
Difusión de software dañino
- Implementación de sistemas de antimalware
- Programas de renovación tecnológica
Acceso no autorizado
Inadecuados esquemas
periódicos de reposición de
Activos Obsoletos
Protocolos
Ataque Dirigido
Errores del administrador
Destrucción de información
Inadecuados esquemas
periódicos de reposición de
Activos Obsoletos
Escasos registros en logs o
variables auditables
Errores del administrador
HMI
Principal
Errores de monitorización (log)
Pocos mecanismos de
control y monitoreo
Ataque Dirigido
Pocos mecanismos de
control y monitoreo
HMI S/E
Errores de monitorización (log)
- Sistema de autenticación fuerte
- Administración de roles y privilegios
- Programas de renovación tecnológica
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Ataque Dirigido
Pérdida de
trazabilidad del
software
- Esquemas de mantenimiento preventivo y correctivo
Falla del Software
Manipulación de la configuración
Pérdida de
trazabilidad del
software
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Ataque Dirigido
Ataque Dirigido
Pérdida de la
integridad del
software
- Sistema de autenticación fuerte
- Procedimiento de control de accesos físicos
- Administración de roles y privilegios
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
Acceso no autorizado
HMI S/E
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Esquemas de pruebas y control de cambios
Difusión de software dañino
Pérdida de la
integridad del
software
- Esquemas de pruebas y control de cambios
- Esquemas de mantenimiento preventivo y correctivo
Configuración incorrecta o
inadecuada
Pérdida de la
integridad del
hardware
CONTROLES
- Implementación IPS y HOST IPS
- Implementación de firewall
- Segmentación de Red en VLANS
- Utilización Protocolos seguros
- Implementación de Control de acceso a la Red - NAC
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Entrenamiento al personal
- Procedimientos de revisión y auditorias
- Protección de archivos
- Entrenamiento al personal
- Entrenamiento al personal
- Implementación Sistemas SOC y correlacionalor de
eventos
- Procedimientos de revisión y auditorias
- Implementación IPS y HOST IPS
- Implementación de firewall
- Líneas base de seguridad
- Entrenamiento al personal
- Implementación Sistemas SOC y correlacionalor de
eventos
- Procedimientos de revisión y auditorias
20
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
7. CONCLUSIONES
Debido al incremento de las posibilidades de ataques a
los sistemas SCADA, este proceso de análisis de
riesgos e implementación de medidas de control es un
proceso que debe ser asumido por la dirección de las
Empresas con compromiso, involucrando a equipos
interdisciplinarios en su implementación y asignando
los recursos requeridos.
El análisis de riesgos debe ser un proceso periódico
que permita a cada empresa conocer cuál es su estado
actual, con el objetivo de marcarse hitos y priorizar las
tareas, atendiendo en primer lugar aquellas que sean
consideradas como críticas.
Una vez que los controles estén siendo gestionados
para los Sistemas SCADA, las Empresas estarán
acercándose al cumplimiento de la Norma NERC CIP,
norma que es el marco de trabajo que tiene como
función identificar y proteger los recursos cibernéticos
críticos y garantizar el funcionamiento del sistema
Eléctrico.
REFERENCIAS
[1] CECOEL - Centro de Control Eléctrico. Online [Jul. 2012].
[2] E. San Román. CISSP, CISA y CEH. “Los sistemas
SCADA y su exposición ante ataques informáticos”.
Online [May. 2012].
[3] G. Clarke, D. Reynders & E. Wright. “Practical Moderm
SCADA Protocols: DNP3, 60870.5 and Related Systems”.
Great Britain, 2004.
[4] P. Pablo, A. Eduardo, D. Susana, G. Laura & G. Cristina.
“Estudio sobre la seguridad de los sistemas de
monitorización y control de procesos e infraestructuras
(SCADA)”. Instituto Nacional de Tecnologías de la
Comunicación – INTECO. España. Marzo 2012.
[5] R. Vignoni, R. Pellizzoni & L. Funes. “Sistemas de
automatización de subestaciones con IEDs IEC 61850:
Comunicaciones, topologías”. Argentina, Mayo, 2009.
[6] D. G. Hernán. ”Implementación de Un sistema SCADA
para la mezcla de dos sustancias en una industria
química”. Online [En. 2012].
[7] Protocols IEC 60870-5-104. Online [Mar. 2012].
21
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
SISTEMA DE EVALUACIÓN CUALITATIVA A TRAVÉS DE DISPOSITIVOS
MÓVILES
José Eucario Parra Castrillón
Universidad de San Buenaventura
[email protected]
(Tipo de Artículo: Investigación. Recibido el 16/10/2012. Aprobado el 22/12/2012)
RESUMEN
El Sistema PruebaL es un producto del proyecto Evaluación Cualitativa a Través de Dispositivos Móviles, cuyo objetivo es
analizar e implementar un sistema para gestionar procesos de evaluación.
La temática se enmarca dentro de los conceptos de mobile learnig y su desarrollo consistió en el análisis de requerimientos
funcionales y no funcionales, la definición del sistema, el diseño para las relaciones modulares de profesor, estudian te,
administrador y pruebas y la implementación utilizando tecnología de teléfonos celulares.
Se alcanzaron dos logros fundamentales: un modelo de evaluación cualitativa automatizada con el sistema PruebaL y la
notificación efectiva a los teléfonos celulares matriculados en las bases de datos de estudiantes, para la presentación de las
evaluaciones y el acceso Web a estas.
Palabras clave
Dispositivos móviles , m-learning, escala de Likert, evaluación cualitativa, redes inalámbricas,
QUALITATIVE ASSESSMENT SYSTEM THROUGH MOBILE DEVICES
ABSTRACT
The System PruebaL is a product of the research project called Quality Assessment Through Mobile Devices, which aims to
analyze and implement a system to manage the evaluation processes.
The subject is in the context of mobile learning concepts and the approach is made through the analysis of functional and nonfunctional requirements, system definition, and design for modular relationships for professor, student, administrator and
testing and implementation using cell phone technology.
There are two significant achievements: an automated qualitative assessment model with the system PruebaL and the effective
notification for cell phones registered in student databases for conducting assessments and the Web access to them.
Keywords
Mobile devices, m-learning, Likert scale, qualitative assessment, wireless networks.
SYSTÈME D’EVALUATION QUALITATIVE À TRAVERS DE DISPOSITIFS
MOBILES
Résumé
Le système PruebaL est un produit du projet Evaluation Qualitative à Travers de Dispositifs Mobiles, qu’a comme objectif
d’analyser et d’implémenter un système pour gérer des processus d’évaluation.
Le thème se situe autour des concepts d’apprentissage sur mobile et est développé à partir de l’analyse des requêtes
fonctionnelles et non-fonctionnelles, la définition du système, la conception des rapports modulaires du professeur, étudiante,
administrateur et des essais & implémentation en utilisant technologie de téléphones portables.
Il y a deux réussites fondamentales: un model d’évaluation qualitative automatisé avec le système PruebaL et la notification
effectif aux téléphones portables enregistrés dans las bases de données d’étudiants, par rapport à la présentation des exams
et accès pour le Web.
Mots-clés
Dispositifs mobiles, apprentissage sur mobile, échelle de Likert, évaluation qualitative, réseaux sans fils.
22
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
1. INTRODUCCIÓN
El proyecto contribuye a la investigación aplicada en el
campo del Mobile learning (m-learning) y dentro de sus
objetivos están crear un estado del arte acerca del
desarrollo de aplicativos y proyectos para m-learning
que utilicen software libre; determinar en cuáles
dispositivos móviles es utilizable el aplicativo
desarrollado, mediante una clasificación valorativa a
las tecnologías existentes y desarrollar las fases de
análisis, diseño, implementación y pruebas de un
sistema de m-learning para dispositivos móviles.
Mobile learning es una
forma de aprendizaje
generada a partir de la conjunción entre el e-learning y
la aplicación de los dispositivos móviles (smart
devices) inteligentes, como PDAs, smartphones, Ipods,
pocket PCs, teléfonos. Se fundamenta en la posibilidad
que brindan estos móviles para combinar la movilidad
geográfica con la virtual, lo que permite el aprendizaje
en el momento en que se necesita, en el lugar donde
se encuentre y con la información precisa que se
requiera.
El m-learning se desarrolla apoyado en las siguientes
características de los servicios móviles [1]:
accesibilidad, conveniencia, inmediatez, localización,
personalización y ubicuidad.
En su esencia el proyecto crea un servicio de
formulario para la Web, donde el profesor diseña la
estructura de la prueba, la cual consiste en la escritura
de los enunciados de las preguntas, la escritura de las
opciones de respuesta para la homologación con la
escala de Likert y el tiempo de respuesta. Las
preguntas se plantean para que el estudiante responda
desde su dispositivo móvil a unas opciones, las que
internamente serán interpretadas por el software para
la clasificación en un modelo de Escala de Likert [2].
2. DESARROLLO DEL M-LEARNING
El e-learning o aprendizaje electrónico es más que un
sistema de acceso a información y de distribución de
conocimientos. Además de estas dos funciones, debe
proveer mecanismos de participación pedagógica para
la interacción entre los participantes, teniendo en
cuenta la educación como conjunto de procesos
constructivos, la tecnología como soporte y medio para
la creación de ambientes educativos y la comunicación
como elemento esencial para el reconocimiento y
vinculación de las personas. El e-learning facilita el
acceso al aprendizaje en función de las necesidades
del usuario, en el lugar que lo requiera.
Acorde con los avances de la tecnología, el e-learning
se ha venido transformando. Es así como las clases
digitales venían antes integradas en CD con un buen
nivel de multimedia, pero sin posibilidad de
interacciones de los usuarios con el profesor y con la
dificultad de poder actualizar los contenidos. Luego con
la disponibilidad de Internet, la fuerza la toman los
cursos on-line, con la posibilidad de interacción entre
los participantes, la versatilidad de las comunicaciones
sincrónicas o asincrónicas, la actualización y
adaptación de los contenidos y la utilización de
plataformas LMS -Learning Management System-,
para la gestión de los aprendizajes. Terminado la
primera década del siglo XXI, con el advenimiento de la
tecnología móvil, el desarrollo del e-learning viene
adquiriendo la forma de m-learning, acorde con la
masificación de los dispositivos móviles como recursos
que la gente utiliza para comunicarse y para acceder a
información en distintos formatos.
Mobile learning (m-learning) es una
forma de
aprendizaje generada a partir de la conjunción entre el
e-learning y la aplicación de los dispositivos móviles
(smart devices) inteligentes, como los teléfonos
celulares. Se fundamenta en la posibilidad que brindan
estos móviles para combinar la movilidad geográfica
con la virtual, lo que permite el aprendizaje en el
momento en que se necesita, en el lugar donde se
encuentre el usuario y con la información precisa que
se requiera.
El
m-learning
se
desarrolla
apoyado
con
características de los servicios móviles como los
siguientes [1]: accesibilidad (tecnológicamente son
pocas las limitaciones en el tiempo o en el espacio
para utilizar los servicios y comunicarse), conveniencia
(los servicios se utilizan dónde y cuándo se quiere),
inmediatez (el acto se comunica en tiempo real),
personalización (los servicios y los terminales son
adaptables a las necesidades y gustos de los usuarios)
y ubicuidad.
También se formulan las siguientes ventajas
funcionales del m-learning [1]:
 Aprendizaje en todo tiempo y en cualquier lugar: No
se requiere estar en un lugar particular ni a una
hora determinada para aprender. El dispositivo
móvil puede ser usado en cualquier lugar, por lo
que el aprendizaje se personaliza y adapta a los
requerimientos y disponibilidades individuales de
cada persona.

Los dispositivos móviles posibilitan la interacción
en tiempo real entre estudiantes y profesor. Se
facilita de forma automática la retroalimentación
por parte del profesor.

Mayor cobertura: La telefonía móvil está al alcance
de la generalidad de la población. El dispositivo
móvil es un accesorio cotidiano.

Mayor accesibilidad. La realidad tecnológica es que
los dispositivos móviles tengan conexiones a las
redes y servicios de acceso a la Web.

Mayor portabilidad y funcionalidad: Los estudiantes
pueden escribir anotaciones directamente en el
dispositivo, durante el mismo tiempo que recibe los
objetos de aprendizaje y las comunicaciones con
sus asesores. Además, puede grabar para luego
acceder a las instrucciones.
23
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012

Aprendizaje colaborativo. La tecnología móvil
favorece que los estudiantes puedan compartir el
desarrollo de ciertas actividades con distintos
compañeros, creando equipos, socializando,
compartiendo
respuestas,
compartiendo
propuestas.

Se facilita el aprendizaje exploratorio: En tiempo
real, en la medida que se recibe información se
puede estar explorando, experimentando y
aplicando sobre contextos y campos de práctica.
El m-learning es una extensión del e-learning y por esto
los análisis e investigaciones deben considerar no solo
la capacidad tecnológica del dispositivo, sino que
acuerdo al siguiente listado de posibles limitaciones,
se deben considerar aspectos como:

Las intenciones pedagógicas deben tener un
alcance relacionado con las limitaciones de la
multimedia interactiva en los dispositivos móviles.

Características como la usabilidad, la visibilidad y la
navegabilidad deben acoplarse a las condiciones
del tamaño reducido de los dispositivos.

La intensidad de la comunicación, el volumen de
los objetos, la extensión de los mensajes, deben
considerarse teniendo en cuenta las limitaciones de
los dispositivos.
Un aporte importante sobre la incidencia en la relación
tecnología – pedagogía, se hace en [3]. Se concluye
como los dispositivos móviles conllevan a cambios en
los componentes de diseño y enseñanza de los
ambientes virtuales. “ya que la incorporación de
dispositivos de mobile learning “obliga” a pensar de
forma diferente, a visualizar los contenidos, los
materiales y las estrategias de distinto modo cuando se
visualiza que el alumno estará interactuando en
diversos espacios y escenarios”.
Además, se plantea en este mismo artículo que la
comunicación entre los participantes en el ambiente de
aprendizaje virtual con m-learning se incrementa, dada
la convergencia de distintos canales y las
características de mensajería instantánea que
fácilmente allí se adopta. Se incrementa también la
posibilidad del contacto bidireccional en forma
sincrónica y de descargar los objetos de aprendizaje
para reproducirlos posteriormente en cualquier lugar.
Un ejemplo de desarrollo en cuanto a la aplicación de
las tecnologías de la educación y la comunicación –
TIC – a las actividades formativas, son las experiencias
en el Instituto Tecnológico de Monterrey, donde ha sido
notable la evolución del aula de clase. Se ha pasado
por la clase presencial, la incorporación de tecnología
en las aulas, la educación satelital, la educación en
línea aprovechando la Web, hasta llegar en el 2010 a
las innovaciones con m-learning [4].
En el 2007 en el Instituto se crearon ambientes con
recursos para dispositivos móviles como audio, videos,
ejercicios interactivos y actividades colaborativas,
utilizándose artefactos como PDA-phones, teléfonos
celulares, e-Books o BlackBerry [4].
El proyecto EDUMÓVIL [5] fue financiado en 2007 y
2008 por la Fundación Motorola, está dirigido a la
aplicación del m-learning, para facilitar el aprendizaje
de niños de escuelas primarias de la ciudad de
Huajuapan de León (México). El propósito ha sido
cubrir temas que presenten dificultad en el aprendizaje,
por medio de un conjunto de juegos desarrollados para
ser ejecutados en dispositivos móviles. Para esto se
creó un proceso de desarrollo de juegos denominado
GDP (Game Development Process), propuesto por el
Grupo de Investigación de Tecnologías Aplicadas a la
Enseñanza -GITAE- de la Universidad Tecnológica de
la Mixteca (UTM).
Sobre este tema de los juegos en dispositivos móviles,
existe un referente de la Facultad de Informática de la
Universidad Complutense de Madrid. Allí el proyecto
“Juegos Educativos en Dispositivos Móviles” se
desarrolló dentro del concepto de ámbito del
aprendizaje electrónico, combinando las ventajas de
dos de sus categorías: el juego educativo y el
aprendizaje móvil. Tal combinación hace posibles
nuevas rutas y paradigmas en el diseño y creación de
desarrollos como los videojuegos [6]. Este proyecto se
desarrolló con base a dos plataformas: eAdventure y
Android. El Software de e-Adventure está bajo licencia
Open Source y se puede descargar de Internet, junto
con manuales y tutoriales detallados.
Un prototipo WAP (Wireless Application Protocolprotocolo de aplicaciones inalámbricas) consistente en
la implementación de un curso virtual inglés [7]. Para la
construcción de este prototipo se desarrollaron
modelos de casos de usos, y modelado de relaciones
dominios, para un enfoque global de la solución. En el
desarrollo se utilizaron herramientas de protocolos
abiertos y software libre, como HTML y PHP. Algunas
de sus funcionalidades son las siguientes:





Despliegue de los contenidos académicos para
usuarios registrados.
Registro de estudiantes o usuarios.
Obtención de contenidos programados dentro del
portal WAP
Evaluaciones en línea.
Administración de la base de datos a través de la
Web.
En la Universidad de Córdoba (España), se desarrolló
un proyecto sobre incorporación de tecnologías mlearning a la docencia. El objetivo fue evaluar la
utilización de distintos recursos de m-learning para la
docencia de dicha institución. Concretamente se
trabajó con PDAs (Personal Digital Assistant) y UMPCs
(Ultra Mobile Personal Computer).
Proyecto MOBIlearn [8] es una iniciativa cofinanciada
por la Comisión Europea y la National Science
24
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
Foundation de los Estados Unidos, con los objetivos de
diseñar una arquitectura que permita integrar los
dispositivos móviles en entornos virtuales de
aprendizaje,
desarrollar
aplicaciones
de
tipo
cooperativas para dispositivos móviles, definir modelos
teóricos de enseñanza
y diseñar modelos de
formación y contenidos para entornos que integren
tecnologías móviles.
Otro proyecto que merece destacarse es ClayNet [9].
Es una plataforma de aprendizaje que se aplica tanto
en procesos de apoyo a la educación presencial como
en el aprendizaje en línea, con el agregado importante
de poder ser adaptado y personalizado para cada
estudiante. Su arquitectura se basa en servicios Web e
integración de portlets (componentes modulares
gestionadas y visualizadas en un portal web). El
propósito fundamental es permitir el acceso de los
usuarios desde un dispositivo móvil para el estudio e
interacción con los recursos de aprendizaje.
En otro proyecto donde se evidencia la aplicación del
software libre, es Mobile Learning EOI, desarrollado y
aplicado en la Escuela de Organización Industrial, en
cuya estructura se integran Android, Google, Moodle
[10].
Teniendo Android como sistema operativo, se explotan
recursos poderosos de Google Apps para el trabajo
colaborativo, como correo, chat, sites, docs, debates,
calendarios, blogs, grupos, en conexión con una
plataforma educativa de Moodle, con el agregado de
poder ser gestionada desde un dispositivo móvil. Este
proyecto se enmarca dentro del Plan 2020 EOI, donde
un objetivo prioritario es la apuesta por el conocimiento
abierto y la integración de tecnologías de software libre.
En cuanto a su impacto y realización, dentro del
proceso de formación de la EOI se ha dotado a más
de 400 estudiantes de un dispositivo Smartphone, con
sistema operativo Android (software libre) como parte
de su programa formativo.
Una aplicación de los móviles en la construcción de
una didáctica, se observa en [11], se describe un
interesante proyecto didáctico que utiliza tres itinerarios
didácticos desarrolladas sobre la plataforma Moodle
(Open Source software) y englobaron el uso de
agendas electrónicas o PDA (HP IPAQ Pocket PC
3715) y dispositivos GPS (Garmin eTrex).
En el primer itinerario el alumno, a través de la
adopción de un rol de explorador para buscar un tesoro
en un territorio desconocido, aprenda a orientarse
geográficamente, a la vez que se familiariza con la
utilización de los dispositivos móviles (PDA y GPS),
Asimismo, en el segundo itinerario el alumno adopta el
rol de arqueólogo y tendrá que sumergirse en la historia
e influencia extranjera en esa región, también con
dispositivos móviles y en el tercero, el alumno adopta el
rol de artista y debe realizar una guía turística en la
misma región.
La iniciativa K-Nect, es otra aplicación del aprendizaje
móvil. En cinco escuelas de secundaria de Carolina del
Norte (EE.UU) los estudiantes con dificultades para
aprender matemáticas están utilizando el programa KNect, ellos reciben los problemas de álgebra en el
dispositivo móvil (smartphones), suben las respuestas
a un blog comunitario en la Web y comentan los
resultados con los compañeros y su profesor. Además,
la intención es fomentar el trabajo en equipo y
aprovechar las herramientas de audio y video, es por
esto que resuelven los problemas por grupos y graban
sus explicaciones para que sus compañeros puedan
observarlas en el blog, intercambiando los roles de
quien enseña y quien escucha [5].
Como este existen proyectos pilotos financiados por
compañías de nuevas tecnologías, como es el caso de
K-Nect o Nokia, con el proyecto Text2teach en
Filipinas.
En Gran Bretaña está en marcha el proyecto
MoLeNET, donde participan 115 colegios y 29
escuelas. “A través de diferentes iniciativas, el proyecto
se basa en explorar las posibilidades de los soportes
electrónicos móviles en general, tanto teléfonos como
PDAs, reproductores de mp3 y mp4, videojuegos y
netbooks, educando a los profesores en el potencial de
estas herramientas con el fin de ampliar las habilidades
del alumnado y generar más interés en el aprendizaje a
través de actividades interactivas” [5].
3. ANÁLISIS DEL SISTEMA
PruebaL es un sistema para el diseño, aplicación y
despliegue de pruebas de evaluación y resultados. El
aplicativo consiste en un servicio Web y un modelo de
cliente que accede a dicho servicio desde dispositivos
móviles.
En el servicio Web se implementan los métodos
necesarios para permitir y controlar la conexión y
evaluación de los usuarios desde los móviles, así
como el acceso a las notificaciones, adaptándolos a las
características particulares del dispositivo utilizado.
Desde el cliente móvil se ejecutan los métodos
necesarios para el acceso al servicio web.
Es de anotar que el sistema se probó en dispositivos
celulares de discreta gama (Sony Ericsson W302),
asequibles sin altos comerciales y en otros dispositivos
modernos, específicamente (Black Berry Curve 9300).
Con respecto a la validación de los resultados, el
sistema se sometió a pruebas en tiempo real con
usuarios de los dispositivos mencionados. Aun siendo
un prototipo, de manera cualitativa se pudo verificar la
buena apreciación e impacto que despertó en las
experimentaciones. En general, dos aspectos fueron
resaltados por los participantes en las pruebas:
a) La utilidad del proyecto, ya que cubre la necesidad
de movilidad de las personas y está en coherencia
con la cultura digital de los estudiantes jóvenes.
25
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
b) Su potencial para ser incorporado en proyectos de
educación virtual.
En las pruebas no se consideraron análisis
cuantitativos ya que su naturaleza implicó técnicas de
exploración bibliográfica y de aplicación de tecnologías
para la Web móvil.
Escala
C
3.1. Descripción del sistema
La delimitación de PruebaL tiene las siguientes
condiciones:
D
1) Existencia de un objeto de evaluación. A través del
dispositivo móvil el estudiante recibirá instrucciones
sobre el material de estudio, la ubicación del
material, la fecha y hora de aplicación de la prueba,
las condiciones de aceptación y los mecanismos
para la interacción.
2) Como el estudiante responderá de acuerdo con
unas opciones homologables a escala de Likert, las
preguntas deben tener las siguientes orientaciones:



Enunciados para análisis de respuestas
argumentativas.
Enunciados para análisis de respuestas
interpretativas.
Enunciados para análisis de respuestas
propositivas.
3) Por las condiciones tecnológicas de los dispositivos
móviles, en cuanto al reducido tamaño de las
interfaces y la minimización de funciones
incorporadas en los teclados, las preguntas deben
formularse con texto condensado, con la intención
de resumir al menor número de palabras. El texto
debe escribirse para su rápida comprensión,
evitándose proposiciones argumentativas extensas.
4) En un formulario para la Web, el profesor diseña la
estructura de la prueba, la cual consiste en la
escritura de los enunciados de las preguntas, la
escritura de las opciones de respuesta para la
homologación con la escala de Likert y el tiempo de
respuesta.
Las preguntas se plantean para que el estudiante
responda de acuerdo con cinco opciones, cada una
de las cuales tiene un peso distinto, que internamente
será interpretado por el software para la clasificación
siguiente:
Tabla No 1. Escalas y valores para el diseño de las
preguntas
Escala
Valoración
A
B
La respuesta cumple de manera
satisfactoria con el
objeto de
evaluación.
Respuesta totalmente correcta.
La respuesta cumple de manera
satisfactoria con el objeto de
evaluación, pero agrega u omite
características importantes.
E
Valoración
Respuesta correcta pero con
inconsistencias
La respuesta no es satisfactoria
aunque cumple parcialmente con
algunos atributos relevantes
del
objeto de evaluación.
Respuesta que no es correcta ni
incorrecta
La respuesta no es satisfactoria y no
cumple con los atributos del objeto
de evaluación, aunque alcanza a
satisfacer algunos.
Respuesta incorrecta pero con
aciertos.
La respuesta no es satisfactoria y
cumple atributos del objeto de
evaluación, los omite, los contradice
o no los comprende.
Respuesta totalmente incorrecta.
5) Existen bases de datos de profesores, estudiantes,
pruebas y preguntas, para gestionar el acceso, el
diseño, la aplicación y la gestión del sistema.
6) El sistema tiene opciones para su aplicación grupal
o individual. Esto significa que las pruebas se
pueden aplicar masivamente a grupos o
individualmente a estudiantes seleccionados.
3.2. Formulario para creación de preguntas
La creación de preguntas se realiza en un formulario
Web en función de los siguientes campos: número de
la pregunta -NP-, peso de la pregunta -PP- (rango de 1
a 10), enunciado -E-, opciones de respuesta -OR-,
valoración de cada opción -VO- (en el rango A, B, C,
D, E).
La función del PP jerarquiza las preguntas, según lo
decida el profesor. Varias preguntas pueden tener el
mismo PP, pero ninguna de ellas puede quedar sin PP
asignado. Como reglas de negocio, NP puede crecer
hasta 20 y E puede tener hasta 40 palabras, por las
condiciones tecnológicas y de usabilidad que implica
m-learning Igualmente, la dimensión de las OR pueden
ser hasta 30 palabras.
La VO se hace de acuerdo con la tabla No 1. A cada
opción se le asigna una de las valoraciones y no puede
haber opciones con igual valor. Esto significa que en
tiempo de creación de la pregunta se le están dando al
software los parámetros para la respectiva evaluación.
La opción correcta tienen una valoración de A y el resto
de valores se asignan jerárquicamente, dependiendo
de la coherencia con respecto al enunciado.
Esto quiere decir que el Sistema PruebaL de manera
cualitativa interpreta cada una de las posibles opciones
y considera que dentro de las no acertadas hay unas
más aproximadas que otras a la respuesta correcta.
El actor de esta plantilla es el profesor. Redacta los
enunciados de pregunta, redacta las opciones y a cada
26
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
opción le asigna una valoración en el rango de A hasta
E.
software envía la evaluación siguiente a
un
estudiante, solo cuando cerró la última presentada.
Al estudiante le llegan las preguntas y las opciones. El
estudiante elige una de las cinco opciones e
internamente el programa la califica de acuerdo con la
valoración asignada en la plantilla.
3.4. Expresión de los resultados
Al estudiante le llega una valoración por cada pregunta.
De acuerdo con el siguiente criterio se hace la
evaluación, sabiendo que para cada pregunta el
estudiante respondió A, B, C, D o E:
El profesor planea un número de preguntas superior al
que recibirá el estudiante. Esto es, cada prueba tiene
un banco de preguntas, de las cuales el programa
escogerá aleatoriamente las que le llegarán al
estudiante.
3.3. Funcionalidad del sistema
El sistema cumple con las siguientes funciones:
1) Aplicación de un servicio Web para programación
de la prueba, diseño de preguntas y notificación a
los dispositivos móviles de los estudiantes sobre la
prueba programada. Envío de pruebas a los
dispositivos y registro de las respuestas de los
estudiantes.
2) La evaluación es interactiva, lo que significa que las
preguntas no se despliegan en lista, sino que en la
medida que el estudiante responde, se van
mostrando en su dispositivo móvil.
Tabla No 2. Relación de conceptos y valoraciones
Valoración
Concepto emitido
A
Respuesta totalmente correcta
Respuesta correcta pero con
B
inconsistencias
Respuesta que no es correcta ni
C
incorrecta
Respuesta incorrecta pero con
D
aciertos
E
Respuesta totalmente incorrecta
El resultado general de la prueba se logra con la
siguiente estructura:
Cada valoración tiene asociado un número en la escala
de 1 a 5. Esto permite hallar la media de la prueba,
hecha la conversión es posible plantear procesos
estadísticos para hallar el resultado de la prueba.
Cada pregunta tiene un peso asociado, este parámetro
se utilizará en la obtención estadística del resultado de
la prueba.
3) En el dispositivo móvil del estudiante, se muestra el
enunciado de la pregunta con un menú de cinco
opciones de respuesta (cinco ítems). El estudiante
elige uno de ellos y el software internamente lo
homologa a la escala de Likert diseñada.
4) Las preguntas se emiten de acuerdo con un
procedimiento aleatorio, en cuanto al orden de las
opciones. Es decir, a estudiantes distintos les llega
la misma prueba con preguntas distintas y con
opciones de respuesta en orden diferente, en caso
de preguntas iguales.
5) Terminada la totalidad de la evaluación, el software
devuelve en el dispositivo móvil del estudiante y en
su correo electrónico, los resultados de la prueba,
comparando cada respuesta del estudiante con la
respuesta acertada que almacenó el profesor.
6) El modelo de PruebaL permite que a los
estudiantes le lleguen automáticamente a sus
dispositivos
móviles,
los
resultados
con
valoraciones cuantitativas y cualitativas de cada
pregunta del examen.
7) En bases de datos con acceso a los profesores
desde la Web, quedan registros de fecha, hora y
resultados de las pruebas aplicadas.
8) El sistema queda reiniciado para una siguiente
prueba. No es posible que a un estudiante le
lleguen varias pruebas a la vez, sino que el
Fig. 1. Escala de Likert
Luego el resultado final se puede expresar en los
siguientes términos:
a) Porcentaje de cumplimiento de logros: El resultado
se puede expresar porcentualmente.
b) Evaluación en un rango de 1 a 5.
c) Evaluación descriptiva de acuerdo con la siguiente
homologación:
Tabla No 3. Criterios para el resultado final de la prueba
Intervalo
Concepto
1.0
Prueba reprobada
1.1 -2.5
Prueba reprobada con algunos aciertos
Prueba en suspenso. NI aprobado, ni
2.6 -3.5
reprobada
3.6 -4.9
Prueba aprobada con algunos desaciertos
5.o
Prueba aprobada
3.5. Análisis y diseño
Los procesos de definición del sistema, análisis de
requisitos, modelado de la solución y validación de
requerimientos, se hicieron aplicando técnicas de UML.
27
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
En las figuras 2, 3, 4 y 5, se muestra el modelado del
sistema y los subsistemas.
Algunos de los diagramas UML implementados son los
siguientes:
PruebaL
Creación de
pruebas
Administración
del sistema
Aplicación de
pruebas
Diseño de prueba
Administradores
Proceso de
respuestas
Asignación de
preguntas
Grupos
Procesos de
resultados
Programación de
prueba
Profesores
Fig. 4: Caso de uso de gestión de pruebas
Nombre del caso de uso: CU1 Servicio de pruebas
Estudiantes
Pruebas
Fig. 2: Sistema global y subsistemas de PruebaL
Pre-condiciones: Cosas que deben ser verdad antes
que el caso de uso pueda suceder.
a. La plantilla debe estar habilitada para diseñar la
prueba
b. Estudiantes y profesores deben estar matriculados
antes de enviar notificaciones de pruebas y
preguntas de las pruebas.
c. La notificación de una prueba y la aceptación del
usuario, preceden a la aplicación de la prueba.
d. Los resultados de una prueba se envían al correo
electrónico del estudiante o a su móvil. El envío es
decisión del profesor u obedece a la solicitud de un
estudiante.
e. Una prueba se puede ver, editar o eliminar, solo si
el diseño está terminado.
f. Deben existir métodos para homologar los
resultados a escalas de Likert.
Post-condiciones: Cosas que deben ser verdad
después de que el caso de uso se haya realizado.
Fig. 3. Modelo global de PruebaL
El listado de requisitos que se logró estructurar en un
modelo como parte del proceso de desarrollo de
software, es el siguiente:
R1: Diseño de pruebas
R2: Creación de preguntas
R3: Programación de pruebas
R4: Edición de pruebas
R5: Visualización de pruebas
R6: Envío de pruebas
R7: Confirmación de notificación de pruebas
R8: Aplicación de pruebas
R9: Gestión del administrador
R10: Gestión del profesor
R11: Gestión del estudiante
R12: Gestión del grupo
a. Las pruebas aplicadas quedan grabadas como
plantillas llenas.
b. Los resultados de las pruebas deben quedar
grabados en formato de escalas de Likert.
c. Los estudiantes reciben notificaciones, pruebas y
resultados de las pruebas.
Objetivo: Gestionar los procesos del servicio Web de
pruebas.
Descripción: Las funcionalidades de la gestión y
resultados de las pruebas, habilitan al profesor para el
diseño, edición, aplicación y almacenamiento de las
pruebas y los resultados.
28
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
PruebaL requiere de dispositivos móviles con
tecnología WAP - Wireless Application Protocol -,
protocolo para comunicaciones y aplicaciones
inalámbricas. El estándar WAP soporta la mayoría de
las redes inalámbricas, incluyendo CDPD, CDMA,
GSM, PDC, PHS, TDMA, FLEX, ReFLEX, iDEN,
TETRA, DECT, DataTAC y Mobitex y es soportado por
todos los sistemas operativos.
Fig. 5: Caso de uso de gestión del cliente móvil
Nombre del caso de uso: CU2 Gestión del cliente móvil
Pre-condiciones: Cosas que deben ser verdad antes
que el caso de uso pueda suceder.
a. Las pruebas fueron diseñadas en el servicio Web.
b. La primera pregunta llega al dispositivo móvil, solo
cuando el estudiante respondió a la notificación.
c. La siguiente pregunta llega solo cuando el
estudiante respondió a la anterior.
Post-condiciones: Cosas que deben ser verdad
después de que el caso de uso se haya realizado.
a. El estudiante respondió a las preguntas desde el
dispositivo móvil
b. El estudiante recibió los resultados de las pruebas
en formato de escalas de Likert.
Objetivo: Gestionar los procesos de aplicación de
pruebas desde los dispositivos móviles de los
estudiantes.
Descripción: Las funcionalidades del cliente móvil
habilitan al estudiante para responder a las pruebas y
para recibir notificaciones y resultados.
3.6. Implementación
La implementación de PruebaL requirió de los
siguientes requisitos técnicos:


Un servidor Web para hospedar bases de datos de
prueba, estudiantes, dispositivos móviles
y
resultados.
Aplicativo Web con formularios para el diseño y
gestión de las pruebas.

Interfaces de comunicación del aplicativo Web con
los dispositivos móviles, para la aplicación de las
pruebas.

Herramientas de J2ME y JDBC de la familia de
Java, para tener acceso a las bases de datos
desde los dispositivos móviles, para lograr que la
prueba sea interactiva. Las bases de datos se
gestionarán con MySQL y los formularios para el
diseño y gestión de pruebas, se desarrollaran con
PHP.
Tipos de dispositivos móviles:
Los WAP que utilizan pantallas de baja gama y tienen
acceso a Internet utilizando micronavegadores con
archivos de pequeño tamaño, adaptables a las
restricciones de memorias pequeñas, bajo ancho de
banda y limitaciones funcionales que tienen los
dispositivos que utilizan este estándar.
Aunque WAP soporta HTML y XML, el lenguaje WML
(una aplicación XML) proporciona especificaciones
para pantallas pequeñas y con navegación táctil sin
teclados físicos.
El propósito es que a PruebaL se pueda acceder desde
teléfonos celulares de uso común que tenga la
capacidad de conexión a internet.
3.7. Pruebas del sistema
El sistema se probó utilizando teléfonos celulares de
tecnología SonyEricsson Modelo W302, con memoria
de 15.9 Mbytes y BlackBerry Curve 3G 9300, con
conexiones HSDPA y Wi-Fi para un rápido acceso a
Internet.
El plan de pruebas incluyo la matrícula de múltiples
usuarios administradores, profesores y estudiantes. Se
diseñaron, programaron, notificaron y enviaron
exámenes de las materias bases de datos, algoritmos y
economía básica.
El servicio Web se alojó en un servidor libre
x10Hosting, el cual ofrece a los usuarios una
configuración a través de la herramienta cPanel 11.
La aplicación se conectó con servicio de mensajería
SMS a través de un Web Service administrado por una
empresa privada (http://www.elibom.com).
4. CONCLUSIONES
Las metodologías, técnicas y tecnología para el
desarrollo de software, no tienen modificaciones
relevantes cuando se crean soluciones para
dispositivos
móviles,
independiente
de
los
requerimientos funcionales que deben considerar
factores de usabilidad, dadas las limitaciones por el
tamaño reducido de los dispositivos y de restricciones
para la navegabilidad. Además, con respecto a los
requisitos no funcionales, debe considerarse aspectos
relacionados con la privacidad de las redes
inalámbricas, el ancho de banda, las especificaciones
tecnológicas de los dispositivos y el costo de las
comunicaciones.
Con respecto al m-learning, las potencialidades de las
redes inalámbricas, la proliferación de la tecnología
móvil y la cultura digital de las personas, determinante
para necesidades de acceso a las comunicaciones sin
29
Ing. USBMed, Vol. 3, No. 02, Julio-Diciembre 2012
restricciones de localización o temporalidad, hacen
viables propuestas para procesos de aprendizaje y
evaluación a través de dispositivos móviles. Esto
justifica emprender proyectos para el desarrollo de
software dentro de los conceptos de Mobile Web y
mensajería SMS.
Una última conclusión está relacionada con la
evaluación cualitativa. Esta es viable aplicarla en
entornos digitales, si se diseñan patrones que permitan
mapear las respuestas de los estudiantes con
valoraciones predefinidas y graduadas con escalas
como la de Likert.
Dos recomendaciones quedan como resultado del
proyecto presentado: el análisis de sistemas para
dispositivos móviles debe considerar de manera muy
completa los alcances de la tecnología móvil elegida,
en cuanto a su accesibilidad, disponibilidad comercial y
pertinencia; los proyectos de educación virtual y de
aplicación de tecnologías de la información y la
comunicación en educación presencial, tener presente
alternativas para el m-learning, en consideración del
impacto y penetración de las redes inalámbricas y los
dispositivos móviles.
REFERENCIAS
[1] Innovación en Servicios Empresariales Avanzados ISEA-, MOBILE LEARNING, Análisis prospectivo de las
potencialidades asociadas al Mobiille Learniing. Madrid:
Plan Avanza. 2009.
[2] I. Fernández, (sf). Construcción de una escala de
actitudes tipo Likert. Online [Enero. 2010].
[3] M. Ramírez. “Dispositivos móviles para ambientes
virtuales: implicaciones en el diseño y la enseñanza,”
Redalyc, Vol. 8, No 9, pp. 82-96, Diciembre 2008.
[4] A. M. García-Valcárcel, “Modelos y estrategias de
enseñanza”. Online [Junio. 2009].
[5] G. G. Castillo, C. A. Fernández & R. Ruíz. “Evolución del
Proceso de desarrollo de video juegos en la iniciativa
académica
EDUMOVIL”,
in
VII
Jornadas
Iberoamericanas de Ingeniería del Software e Ingeniería
del Conocimiento. Universidad Tecnológica de la
Mixteca. 2010.
[6] J. M. Cuevas, G. M. Pérez & A. Villoria. “Juegos
educativos en dispositivos móviles”. Madrid: Universidad
Complutense de Madrid, Facultad de Informática. 2009.
[7] M. Díaz, J. Garrido & D. Heredia. “Prototipo de Mlearning”. Revista Investigación y Desarrollo en TIC, No
1, pp. 38-46. 2010.
[8] M. Sánchez & Y. Vicente (sf). M-learning: un nuevo
paradigma en teleeducación. Laboratorio de software de
telecomunicaciones. Online [Noviembre. 2010].
[9] A. Velasco, J. Carabias, M. A. Conde & F. J. García.
“ClayNet: Adaptación de contenidos en m-learning”.
Salamanca (España), Universidad de Salamanca. 2007.
[10] Escuela de Organización Industrial (sf). Plan EOI 2020.
Madrid: Autor.
[11] J. M. Correa, A. Ibañez & E. Jiménez. “Lurquest:
Aplicación de tecnología m-learning al aprendizaje del
patrimonio", Didáctica de las Ciencias Sociales, Vol. 50,
pp. 109-123. 2006.
30
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
EVALUATION OF GCC OPTIMIZATION PARAMETERS
Rodrigo D. Escobar
Alekya R. Angula
Mark Corsi
The University of Texas at San Antonio
[email protected]
The University of Texas at San Antonio
[email protected]
The University of Texas at San Antonio
[email protected]
(Tipo de Artículo: Investigación. Recibido el 10/11/2012. Aprobado el 23/12/2012)
ABSTRACT
Compile-time optimization of code can result in significant performance gains. The amount of these gains varies widely depending
upon the code being optimized, the hardware being compiled for, the specific performance increase attempted (e.g. speed,
throughput, memory utilization, etc.) and the used compiler. We used the latest version of the SPEC CPU 2006 benchmark suite to
help gain an understanding of possible performance improvements using GCC (GNU Compiler Collection) options focusing mainly
on speed gains made possible by tuning the compiler with the standard compiler optimization levels as well as a specific compiler
option for the hardware processor. We compared the best standardized tuning options obtained for a core i7 processor, to the
same relative options used on a Pentium4 to determine whether the GNU project has improved its performance tuning capabilities
for specific hardware over time.
Keywords
Compiler optimization, Machine Learning, Compiler Heuristics, Programming Languages, Processors.
EVALUACIÓN DE PARÁMETROS DE OPTIMIZACIÓN GCC
RESUMEN
La optimización en el tiempo de compilación del código puede resultar en ganancias de rendimiento significativas. La cantidad de
dichas ganancias varía ampliamente dependiendo de código a ser optimizado, el hardware para el que se compila, el aumento
que se pretende en el desempeño (e.g. velocidad, rendimiento, utilización de la memoria, etc.) y el compilador utilizado. Se ha
utilizado la versión más reciente de la suite de benchmarks SPEC CPU 2006 para ayudar a adquirir la comprensión de las mejoras
posibles en el desempeño utilizando las opciones GCC (GNU Compiler Collection) que se concentran principalmente en las
ganancias de velocidad fueron posibles ajustando el compilador con los niveles de optimización del compilador estándar así como
una opción de compilador específica para el procesador de hardware. Se compararon las opciones más estandarizadas de ajuste
obtenidas para un procesador core i7, para las mismas opciones relativas utilizadas sobre un Pentium4 para determinar si el
proyecto GNU ha mejorado sus capacidades de ajuste de desempeño para el hardware especifico en el tiempo.
Palabras clave
Optimización de compilador, Aprendizaje automático, Heurística de compiladores, Lenguajes de programación, Procesadores.
ÉVALUATION DE PARAMÈTRES D’OPTIMISATION GCC
Résumé
L’optimisation du temps de compilation du code peut résulter dans profits significatifs de rendement. La quantité de tels profits
change largement selon le code à être optimisé, le hardware pour lequel on compile, l’augmentation prétendue dans le
rendement (e.g. vitesse, rendement, utilisation de la mémoire, etc.) et le compilateur utilisée. On a utilisé la version le plus
récent de la suite de benchmark SPEC CPU 2006 pour aider à la compréhension des améliorations possibles sur le rendement
en utilisant les options GCC (GNU Compiler Collection) qui se centrent essentiellement sur les profits de vitesse qu’ont été
possibles en ajustant le compilateur avec les niveaux d’optimisation du compilateur standard, de même que une option de
compilateur spécifique pour le processeur de hardware. On a comparé des options les plus standardisés d’ajustage obtenus
pour un processeur core i7, pour les mêmes options relatives utilisés sur un Pentium4 pour déterminer si le projet GNU a
amélioré ses capacités d’ajustage de rendement pour le hardware spécifique dans le temps.
Mots-clés
Optimisation de compilateur, Apprentissage automatique, heuristique pour compilateurs, langages de programmation,
processeurs.
31
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
Compiling and optimizing software for a specific
machine is more of an art than a science. Performance
tuning is dependent upon so many factors that there is
cutting edge work being performed on implementing
machine learning as a methodology for determining the
best compile time options [1] Due to this complexity,
compilers - specifically the GNU Compiler Collection
(GCC) have developed standardized compile time
optimization switches (6 levels) along with many other
flags which allow the user to control a lot of
characteristics of the code produced by the compiler
[2], [3], [4]. Among all these compiling options, GCC
also have standardized compile time options for specific
processor classes (e.g. Intel i7 core, Pentium 4, and
others), which can be set using the mtune parameter.
Besides, the Standard Performance Evaluation
Corporation (SPEC) has developed a well-known and
widely used suite of integer and floating point CPUintensive benchmarks for the purpose of testing and
comparing hardware platforms [5]. The last version was
released in 2006 and it is called SPEC CPU2006.
SPEC CPU2006 consists of 12 integer and 7 floating
point compute-intensive workloads called CINT2006
and CFP2006 respectively, which are provided as
source code and may be compiled with different
options. Thus, they can be used as a test bed to
compare the performance of different computer
architectures, as well as the efficacy of different
compiler optimization options [2]. The CINT2006 suite
measures the compute-intensive integer performance,
while the CFP2006 suite measures the computeintensive floating point performance [6].
GCC is arguably the most utilized, publicly available
compiler in use today. It is provided as the default
compiler on most Linux systems and it is a highly
developed library which has been in production since
the 80’s [7]. Because it has been in production for such
a long time, we could use it in combination with the
SPEC CPU2006 Benchmark Suites and two vastly
different hardware platforms to determine whether the
de facto standard compiler had improved its
performance-based tuning for specific hardware over
the last decade.
The remainder of this paper is organized as follows:
The next section includes the motivation. Section 3
presents a brief introduction to compilers and compiler
optimizations. Section 4 describes the experimental
setup and methodology. Our approach, results, and
additional statistics of the optimizations are discussed in
Section 5. Section 6 discusses future work, and finally
Section 7 concludes.
1. MOTIVATION
A large variety of programs are executed every day on
different processors available in the market. Most of
these programs have been subject to a compilation
process before their execution. Compilation processes
are complex and involve lot of areas of computer
science. In this paper, we aim to assess the
performance of the GCC compiler when its different
optimization parameters are set. Each optimization level
includes over twenty optimizations options. Therefore, a
detailed analysis of how each optimization technique
affects the results is out of the scope of this paper.
Instead, we try to get a general idea about how the
GCC compiler has improved its capabilities to apply
optimization techniques to specific processors.
Compilers’ configuration parameters that have been
designed to generate optimized code for a particular
hardware, such as the mtune parameter provided in the
GCC compiler, are of particular interest. The motivation
behind it is to see whether or not compilers are getting
better over time at optimizing for specific architectures.
Although machine learning may one day become the
best way of optimizing the installation or compilation of
software [1], it currently does not appear to be a
solution that is ready for prime time production use. In
the mean time, compilers will need to become even
more efficient at utilizing the underlying system
architecture through self-optimization. In this paper we
examine options, also called switches, that are already
present in GCC and that could easily be automated to
be 'turned on' at compile time after examining the
hardware it is running on. Moreover, we discuss
whether work has been ongoing over the last decade
into making optimizations for specific hardware
stronger.
2. COMPILERS’ OPTIMIZATION TECHNIQUES
Compilers are basically computer programs that
translate a program written in a specific language to a
program written in another language [8]. The source
program is usually a program that has been written in a
high level programming language, whereas the result of
the translation procedure is usually a program ready to
be executed by a processor (i.e. machine language
code). A compiler must stick to two fundamental
principles:


A compiler must preserve the meaning of the
source program.
A compiler must improve the source program.
Preserving the meaning of the source program means
that every time the translated program is executed, it
produces exactly the same output that the source
program would produce when supplied with the same
input data. On the other hand, improvement of the
source program can refer to several different
characteristics of the resulting code, such as portability,
size, energy consumption, or time of execution, among
others.
The structure of a compiler is usually divided into three
sections or phases, namely: Frontend, optimizer and
backend. A three phase compiler structure is presented
in Figure 1. Each phase usually includes several subphases.
2.1. Frontend
The goal of the frontend phase of a compiler is to
transform the source code into some sort of
32
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
intermediate representation (IR). An intermediate
representation is a machine independent representation
of the source program. The frontend phase is
considered to be composed of the following phases:
 Lexical analysis: The text of the source program
is divided in words or tokens and every word is
categorized as a generic symbol in the
programming language, e.g. a variable name, an
identifier, a type of variable, etc.
 Syntax analysis: This phase takes the list of
tokens produced in the lexical analysis pass and
arranges them in a structure called parse tree
that reflects the structure of the program.
 Type checking: This phase analyzes whether the
program violates certain requirements such as
declaring a variable more than once, assigning a
boolean value to a string variable, etc.
 Intermediate representation generation: The
main goal of this phase is to create a machine
independent representation of the program. It
can take different forms, such as a tree, a graph,
or code.
2.2. Optimization
The intermediate representation of a program is
transformed to produce an optimized version of it.
Usually, each optimization technique is applied
independently, which means that the intermediate
representation of the program may be passed several
times through the optimizer. Compilers which determine
Source
program
how to transform the code to run faster or consume
fewer resources are known as optimized compilers.
The goal of optimized compilers is to perform one or
more safe and profitable transformations on the
intermediate representation, preserving the results and
the meaning of the program [9], [6]. Current advanced
processors are dependent on the compilers to design
the object code for the optimal performance. The GCC
compiler consists of an intermediate language which is
transformed by an independent representation of the
program [9].
2.3. Backend
The goal of the backend phase is to take the
intermediate representation of a program and produce
machine code. This section is composed of the
following phases:
 Register allocation: In this pass, symbolic
variable names used in the intermediate code are
assigned a register in the target machine code.
 Machine code generation: This is the phase that
actually produces assembly code for a specific
machine architecture.
 Assembly and linking: The assembly-language
code generated in the previous pass is translated
into a binary representation. Also, addresses of
variables, functions, etc., are determined.
IR
IR
Frontend
Optimizer
Backend
Target
program
Compiler
Fig. 1. Compiler structure
It is important to clarify that, although the term
optimization implies that an optimal solution is found for
a particular problem, compilers in practice face
problems that cannot be solved optimally. Therefore,
compilers aim to improve the source code in a safe and
profitable way [8]. For a compiler to apply any
optimization technique to a program, it must do the
following three things [10]:
 Decide what section of a program to optimize and
the particular transformation to apply.
 Verify that the transformation will preserve the
semantics of the source program.
 Transform the program
Compiler optimization techniques can be machine
dependent or machine independent. Machine
dependent optimizations depend on the specific
hardware in which the translated program is intended to
be executed. On the other hand, machine independent
optimizations do not depend on a particular computing
system or a type of implementation [11].
3. EXPERIMENTAL SETUP
For our experiments we used two machines, namely
Machines A and C which are described in Table 1. In
order to perform comparisons, we compiled and ran the
SPEC CPU2006 benchmarks in machine A –the
machine with the most modern hardware, using GCC’s
generic optimization levels O0, O1, O2 and O3 [12].
GCC’s optimization levels include different optimization
techniques that are performed during compilation time.
Table 2 presents the set of options applied for each
GCC’s optimization level [13].
For each one of the optimization levels we computed
the geometric mean among all the workload speedups
and, according to it, we identified the best optimization
level. Unsurprisingly, as shown in table 3, the best
results were obtained from the standardized
optimization level O3. Later, we appended to the best
optimization level found (i.e. O3), the mtune compiler
parameter which tries to optimize the code produced by
GCC for a specific processor (i.e. with the mtune
parameter, GCC tries to perform machine dependent
optimizations) [14]. Therefore, for Machine A we
33
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
appended the parameter mtune=corei7 to the SPEC’s
Optimize configuration flags, and then we executed the
resulting binary files. From now on, we identify these
binary files as the mtuned binary files or mtuned
programs and correspond to programs resulting from a
compilation process that uses the optimization
parameters O3 and mtune according to each target
machine (i.e. mtune=i7 for Machine A and
mtune=Pentium4 for Machine C).
Although the use of the mtune configuration parameter
when compiling any source code doesn’t decrease the
portability of the programs, it aims to increase the
performance of the program execution when it is run in
the processor specified with the mtune parameter [14].
Consequently, since we are running the mtuned binary
files in machines with the same processors that were
established for the mtune parameter, we expected to
achieve a more significant improvement for our mtuned
programs than the improvement we found in the
CPU Name
CPU MHz
FPU
CPUs enabled
Primary cache
Secondary cache
Level 3 cache
Other cache
Memory
Disk subsystem
Operating system
Compiler
previous execution of the benchmarks with only the O0,
O1, O2 and O3 optimization levels.
Since Machine A’s processor is clearly much more
modern and powerful than Machine C’s processor,
comparing the results obtained when compiling using
an optimization level in Machine A directly against the
results obtained when compiling using the same
optimization level in Machine C does not make sense.
Instead, our purpose is to compare the relative
differences between compiling in Machine A against the
difference obtained when compiling in Machine C.
Thus, once we ran the mtuned benchmarks in Machine
A, we compiled and ran the benchmarks in Machine C
using the O0 optimization level and later using the best
compilation level found for Machine A (i.e. level O3)
with the mtune parameter set to match the specific
processor of Machine C (i.e. Pentium 4).
Table 1. Systems’ specifications
Machine A
Machine C
Intel core i7 – 2630QM
Intel P4
2000
2400
Floating point unit
Integrated
4 cores, 1 chip, 4 cores/chip, 8
1 core, 1 chip, 1 core/chip
threads/core
32 KB I + 32 KB D on chip per
64 KB I + 64 KB D on chip
core
per chip
256 KB I+D on chip per core
512 KB I+D on chip per chip
8 MB I+D on chip per chip
None
None
None
4 GB
4 GB
SATA
IDE
Linux (Ubuntu 11.10)
Linux (CentOS 5)
GCC 4.6.1 (gcc, g++, gfortran)
GCC 4.6.1 (gcc, g++,
gfortran)
The results are presented in Table 4. After running the
benchmarks in both machines, we compared the
differences between the obtained O0 and mtuned (i.e.
O3 + mtune) results of each machine separately. We
expected the differences to be smaller for Machine C,
than for machine A, and consequently show that GCC
has become a better architecture specific optimizer
over the last decade.
Table 2. GCC’s optimization options
GCC’S
OPTIMIZATION
LEVEL
O0
O1
O2
INCLUDED OPTIMIZATION TECHNIQUES
No options enabled.
Combination of increments or decrements of addresses with memory accesses, reduction of
scheduling dependencies, dead code elimination, avoidance of popping the arguments to each
function call as soon as that function returns, reordering of instructions to exploit instruction slots
available after delayed branch instructions, dead store elimination, guess branch probabilities,
transformation of conditional jumps into branch-less equivalents, discovery of functions that are
pure or constant, perform interprocedural profile propagation, merge identical constants, loop
header copying on trees, constant/copy propagation, redundancy elimination, range propagation,
expression simplification, hoisting of loads from conditional pointers on trees, scalar replacement
of aggregates and temporary expression replacement during SSA.
All the options of O1, and also performs: contained branch redirections, alignment of the start of
functions, alignment of branch targets, alignment of loops, alignment of labels, cross-jumping
transformation, common subexpression elimination, convert calls to virtual functions to direct
calls, function inlining, interprocedural scalar replacement of aggregates, removal of unused
parameters, replacement of parameters passed by reference by parameters passed by value,
enable peephole optimizations, reassignment of register numbers in move instructions and as
operands of other simple, reordering of basic blocks in the compiled function in order to reduce
number of taken branches and improve code locality, reordering of functions in the object file in
34
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
GCC’S
OPTIMIZATION
LEVEL
O3
INCLUDED OPTIMIZATION TECHNIQUES
order to improve code locality, schedule instructions across basic blocks, allow speculative
motion of non-load instructions, reordering of instructions to eliminate execution stalls and
conversion of simple initializations in a switch to initializations from a scalar array, value range
propagation.
All the options of O2 and also performs: movement of branches with loop invariant conditions out
of the loop, predictive commoning optimization, loop vectorization on trees and function cloning to
make interprocedural constant propagation stronger.
4. RESULTS
In order to keep the variables to a minimum for
meaningful comparison, we focused only on the Integer
suite of the SPEC CPU2006 bechmarks. Our initial
assumption was that GCC would become stronger at
optimizing for later model processors using the mtune
parameter, accepting as a given that during ten years of
development (the amount of time lapse from the oldest
P4 processor to the newest i7 quad core production)
tuning skills would have been improved.
SPEC’s 2006 benchmarks reference machine. For
simplicity, only the geometric mean values after
executing all the different benchmarks are presented.
However, more detailed data are presented in Figures 2
and 3, which show the obtained results for machines C
and A respectively. Shown ratios are compared to
machine C. Data corresponding to machine C are
presented first, because Machine A speedup ratios
shown in Figure 3 are relative to Machine C’s O0
results.
Our assumptions were predominantly wrong with
several exceptions. But the exceptions alone proved to
be interesting to our initial assumptions.
Unfortunately for our assumptions, the mtune
optimization coupled with the best performance
optimization (O3) on average produced a very small
performance increase when compared to generic O3
optimization by itself. We had initially theorized that this
gap, the gap between performance of the best generic
optimization (O3) and the best generic optimization
combined with specific processor optimization (mtune),
would widen on the later model processors. With one
major exception, this did not occur. Consequently, it
seems from the results we obtained, that GCC’s
developments are not very focused on per processor
tuning and consequently, in general, users should not
expect a significant improvement by configuring GCC to
produce optimized code for a specific hardware.
Furthermore, sometimes such code may be less
efficient than a code that has been compiled for generic
hardware.
In computer architecture terminology, the term Speedup
is defined as [15]:
Most of the tests performed within a narrow range of
median performance speedup. In other words, when we
normalized each tests performance with the oldest
processor’s baseline we found that the later model
processor showed a fairly consistent speedup across
the board without varying greatly from the base
normalized mean. Tuning increased the performance
nearly across the board within a discrete range. Tables
3 and 4, show the obtained results for machines A and
C respectively. Shown ratios are compared to the
Table 3. Optimization on Core I7 using SPEC CPU 2006 Benchmarks
Core i7
O3 O0
O3
mtune=corei7
Second
Second
Ratio
Ratio Seconds
Ratio
s
s
Geometri
11.3
23.1
892.73
436.97
428.57
23.57
c Mean
3
3
Table 4. Optimization on Pentium 4 using SPEC CPU 2006 Benchmarks
Pentium 4
O3 –mtune =
O0
O3
pentium4
Rati
Second
Rati
Second
Seconds
Ratio
o
s
o
s
Geometri
2912.71
3.48
1858.88
5.44
1976.18
5.12
c Mean
Detailed examination of the instrumentation readout
provided insights into the most prevalent phenomena
(i.e. the overall increase in processor throughput over
the last ten years). Although this is of course, highly
predictable; what was surprising is the most
predominant reason for it as shown by detailed
35
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
instrumentation readout. The processors have similar
overall clock speeds. In fact, the Machine A’s processor
has a slightly slower clock speed than Machine C.
However predictably, the later processors have multiple
cores, larger caches and faster IO (bus speed and hard
drive technology). Surprisingly, the most dominant
factor in overall speed gains appears to be major page
faults.
will only occur on this machine when another process
makes use of a particular page referenced in this table.
However on the multicore machines - which currently
do not have a shared last level TLB minor page faults
can occur whenever a thread is spawned from the
same process on a different core. Hence, the more
cores not sharing the TLB, the more minor page faults.
However, this is inconsequential as an overall indicator
of speed since the virtual pages are still in memory;
they are simply not marked in the memory management
unit as loaded. This 'soft page' fault is easily fixed and
does not create a large performance hit.
Fig. 2. Normalized Ratios and Runtime on Pentium4
using SPEC CPU 2006 Benchmarks
Fig. 4. Comparing minor Page faults between both
machines
From Figure 4 we can see that the minor page faults
are more for Machine A when compared to Machine C.
O3-mtune has less number of minor faults when
compared to the -O3 optimization. Nevertheless, Figure
5 shows that major faults are less for Machine A than
for Machine C. It can also be noticed that after tuning,
the major page faults are reduced in Machine C. In both
processors the tuning helps in reducing the number of
page faults.
Fig. 3. Normalized Ratios and Runtime on Core I7 using
SPEC CPU 2006 Benchmarks
There are two types of page faults: minor and major.
From figures 4 and 5, it is clear that minor page faults
increase with the later processors and major page
faults decrease. Exploring this phenomenon a little
further, we can determine this makes sense. The oldest
processor is a single core processor with a single L2
Translation Look-aside Buffer (TLB). Minor page faults
Statistics related to major page faults are presented in
Figure 5. Looking at the normalized numbers, we can
see that decreased major page faults are easily
attributable as a large part of the later systems' overall
performance increase. It can be argued that this one
statistic alone is responsible for between 46 - 91
percent of the overall system performance gains. We
say, 'it can be argued' because even though these
numbers are normalized, we do not have exact
indicators as to the performance cost of a page fault vs
the performance cost of another slow down e.g. cache
misses. However, we do know that page faults are
probably the single biggest performance slow down in a
system due to the IO time required to retrieve a page
from disk.
Bearing in mind the foundations presented in the
previously exposed points, we now focus on analyzing
36
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
the results presented in Figure 3. Figure 3 presents the
speedup ratios relative to those of Machine C, which
were present in Figure 2. The interesting tests were:
403.gcc, 462.libquantum, 473.astar, 429.mcf. These 4
out of 12 benchmarks displayed anomalies outside the
normal range of speedups shown by the majority. The
fourth one displays an across the board speedup nearly
double that of the normal range. And more interesting
still, are the other three which we believe indicate a
fundamental difference in the way GCC tunes for later
processors.
stronger caching mechanisms will produce much better
results.
The other three tests that exhibit anomalies are of
greater interest. The first, 403.GCC shows a huge
normalized improvement with the O3 optimization, but a
marked decrease in performance when using the O3
tuning coupled with the specific processor tuning.
Figure 7 shows basic blocks counting for this
benchmark. Although we were unable to determine a
reason for the decreased performance for mtuned later
processors, the huge increase in the O3 performance
appears to be at least partially due to loop unrolling
(note the decrease in all block numbers for O3 tuning in
Figure 7).
The second, 462.libquantum which simulates a
quantum computer, also shows a relatively huge O3
optimization gain on the newer processors, but this time
the specific processor tuning is more in line with the
rest of the tests which means it is either about the same
as the O3 alone, or slightly better. However, in this test,
loop unrolling does not appear to be as much of a
factor. We mention the anomaly simply because it is
apparent in the raw data, but were unable to draw any
firm conclusions based upon the data at hand.
Fig. 5. Comparing major Page faults between both
machines
First, we will discuss the fourth test, which does not
indicate a better tuning strategy on the part of GCC
developers, but does show the largest across the board
performance increase (over 6x speedup for Machine A
when compared to Machine C; these speedups
occurred on all three SPEC INT tuning tests –O0
baseline, -O3 and –O3 tuned for the processor). The
test was the 429.mcf test which revolves around
combinatorial analysis. The nature of the test,
predictable branching and a high level of locality – both
spatial and temporal, allows it to maximize the greatest
improvements of the newer processor. This is also
shown in Figure 6, the test has less basic blocks and a
much higher percentage of them are accessed over
1000x when compared to the other tests indicating that
And finally, the third test and by far the most interesting
for our initial hypothesis, is the 473.astar test which
revolves around path-finding algorithms. This was the
only one test where our hypothesis proved correct as
shown in Figure 3. Specific processor tuning (mtune)
for GCC showed big performance increases relative to
baseline and O3 testing for the dual core processor and
huge increases for the i7. Path finding algorithms
revolve around recursive coding which is highly threadable. Each of the later processors has an increasing
amount of hardware threads when compared to
Machine C. The basic blocks for this test are not
modified greatly during the O3 optimization stage so
loop unrolling does not produce a sizable performance
gain, however the mtune tests show slight gains in the
dual core which is capable of spawning 4 simultaneous
hardware threads and huge gains when placed on the
highly threaded quad core processor.
37
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Fig. 6. Basic blocks using 429.mcf Benchmark
Fig. 7. Basic blocks using 403.GCC Benchmark
5. FUTURE WORK
In order to firm up our conclusion, the benchmarks
should be run against later model computers containing
processors
with
different
hardware
threading
capabilities, ideally two (one of each) with 16 hardware
threads, two with 8 hardware threads and two with 4
threads. The number of cores and cache sizes should
remain the same for each pair in order to eliminate
other possible variables. The tests should then be
normalized to the original P4 (2 thread) processor run.
If our conclusions are correct, we should see normal
improvements in O3 level optimization, but ever
increasing improvements in the mtune optimization
speed.
6. CONCLUSIONS
It appears GCC developers have done very little
optimization development for specific processors. We
believe this is due to the large number of possible
processors in the market and the fact that tuning for
each individual processor would be an arduous process
at best. Further testing on an array of the latest, highly
threaded processors would be necessary to concretely
declare this as a truth.
REFERENCIAS
[1] M. Stephenson, S. Amarasinghe, M. Martin and U.-M.
O'Reilly, "Meta optimization: improving compiler
heuristics with machine learning," in PLDI '03
Proceedings of the ACM SIGPLAN 2003 conference on
Programming language design and implementation, New
York, 2003.
[2] Standard Performance Evaluation Corporation, "SPEC's
Benchmarks and Published Results". Online [September.
2011].
[3] Standard Performance Evaluation Corporation, "SPEC
CPU2006 Benchmark Descriptions". Online [September.
2011].
[4] K. Hoste and L. Eeckhout, "Cole: compiler optimization
level exploration" in CGO '08 Proceedings of the 6th
annual IEEE/ACM international symposium on Code
generation and optimization, 2008.
38
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
[5] Standard Performance Evaluation Corporation, "SPEC
CPU2006" Online [September. 2011].
[6] Wind River Systems, "Advanced compiler optimization
techniques" April 2002. Online [December. 2012].
[7] D. Edelsohn, W. Gellerich, M. Hagog, D. Naishlos, M.
Namolaru, E. Pasch, H. Penner, U. Weigand and A.
Zaks, "Contributions to the GNU Compiler Collection"
IBM Systems Journal, vol. 44, no. 2, p. 2005, 259-278.
[8] L. Torczon and K. Cooper, Engineering a Compiler, San
Francisco, CA: Morgan Kaufmann Publishers Inc., 2007.
[9] W. v. Hagen, The Definitive Guide to GCC, Second
Edition ed., Berkeley, CA: Apress, 2006.
[10] D. F. Bacon, S. L. Graham and O. J. Sharp, "Compiler
transformations for high-performance computing" ACM
Computing Surveys (CSUR), vol. 26, no. 4, pp. 345-420,
1994.
[11] P. B. Schneck, "A survey of compiler optimization
techniques" in ACM '73 Proceedings of the ACM annual
conference, 1973.
[12] T. Jones, "Optimization in GCC" January 2005. Online
[December. 2012].
[13] The GNU Compiler Collection Team, "Options That
Control Optimization" Online [October. 2011].
[14] The GNU Compiler Collection Team, "i386 and x86-64
Options – Using the GNU Compiler Collection" Online
[October. 2011].
[15] J. L. Hennessy and D. A. Patterson, Computer
Architecture: A Quantitative Approach 4 Ed, San
Francisco, CA: Morgan Kaufmann Publishers Inc., 2006.
39
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
RETIRO Y AUTOGESTIÓN DEL USUARIO EN ALMACENES
DE CADENA CON DIRECTORIO ACTIVO
Juan F. Hincapié Z.
Rodolfo A. Marín G.
Jerry A. Murillo C.
Universidad de San Buenaventura
COTRAFA
Universidad de San Buenaventura
[email protected]
[email protected]
[email protected]
(Tipo de Artículo: Reflexión. Recibido el 25/11/2012. Aprobado el 27/12/2012)
RESUMEN
Los almacenes de cadena son organizaciones en donde el personal es numeroso, diverso, de alta rotación y alto retiro;
además la gran variedad de negocios que tienen tales organizaciones, hacen que posean muchas aplicaciones a las
cuales muchos usuarios deben ingresar y en la mayoría de veces éste acceso se vuelve administrativamente costoso.
Por tanto se hace necesario el establecimiento de un procedimiento informático (administración de usuarios) que
permita al propio usuario gestionar sus contraseñas y que además le permita a la organización controlar la
desactivación automática de los accesos al momento del retiro (terminación de contrato) del usuario. Para lograr esto
existen variedad de herramientas en el mercado que satisfacen dicha necesidad, pero su implementación y soporte es
demasiado costoso; por eso este artículo pretende mostrar algunos conceptos importantes y la manera en que otras
herramientas y metodologías pueden realizar un adecuado proceso de autogestión y retiro del usuario en los
almacenes de cadena a un menor costo.
Palabras clave
Almacenes de cadena, autogestión, contraseñas, desactivación automática, directorio activo, dominio, empleados,
interconexión, LDAP, proceso, script, retiro de usuario, soporte, servicio web.
DISENGAGEMENT AND SELF-MANAGEMENT OF USERS IN RETAILERS
HAVING ACTIVE DIRECTORY
ABSTRACT
Retailers are companies where the staff is large and diverse; there is high turnover and high disengagement. Because
of their wide variety of businesses, these companies have many applications which are accessed by many users
representing most of the times high costs administratively. Therefore it is necessary establishing a data-processing
(user management) that allows to the user managing his passwords and that also allow to the company to take control
of the automatic turn-off of the access when user disengages (contract termination). To achieve this there are variety of
tools on the market that meet this need, but their implementation and support are too expensive; for this reason this
article tries to show some important concepts and the way other tools and methodologies can perform adequate selfmanagement process and user disengagement in retailers at a lower cost.
Keywords
Retailers, active directory, automatic disabling, domain, employees, interconnection, LDAP, organizational unit,
password, process, user disengagement, script, Self-Management, support, web services.
DESENGAGEMENT ET AUTOGESTION DES USAGERS DANS
HYPERMARCHES QU’UTILISENT REPERTOIRE ACTIF
Résumé
Les hypermarchés sont des entreprises avec beaucoup de personnel, qui est divers, de haute rotation et haute
désengagement ; à cause de la grande variété de ses affaires, ces entreprises ont beaucoup de logiciels sur lesquels
les usagers doivent se connecter et la plupart du temps cet accès devient couteux d’après le point de vue administratif.
Par conséquent il est nécessaire d’établir une procède informatique (administration des usagers) qui permette au même
usager de gérer ses mots de passe et que permettre a l’entreprise de contrôler le désamorçage automatique des accès
dans le moment du désengagement (terminaison du contrat) d’usager. Pour réussir ca il y a variété d’outils sur la
marché qui satisfont ces besoins, mais son implémentation et support sont très coûteux, c’est pour ca qui dans cet
article nous prétendons de montrer quelques concepts importants et la manière dans lequel des autres outils et
méthodologies peuvent réaliser un processus approprié d’autogestion et désengagement des usagers dans les
hypermarchés à un coût plus bas.
Mots-clés
Hypermarchés, autogestion, mots de passe, désamorçage automatique, répertoire actif, domaine web, employés,
interconnexion, protocole léger d’accès à un répertoire (LDAP), processus, script, désengagement d’usager, support,
service de la toile.
40
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
Cada vez los Sistemas de Información (SI) como
bases de datos, sitios Web, servidores de
almacenamiento y servidores de archivos, son
necesarios y por tanto, en las empresas se debe
procurar no olvidar el control que debe tener la
administración sobre las actividades realizadas por
los diferentes usuarios de los SI.
Ahora bien, el constante cambio y rotación de los
empleados de los almacenes de cadena invita a la
administración para que esté muy atenta a las
funcionalidades y controles que deben tener sus
colaboradores. En los almacenes, el perfil de los
usuarios es variable y el soporte es altamente
demandante siendo necesaria la implementación
de herramientas que permitan un manejo
adecuado de los usuarios de los aplicativos.
Sin importar la actividad económica, cada
organización realiza el ingreso de sus empleados
nuevos a los SI, pero un gran porcentaje de estas
pasa por alto retirar los usuarios de los empleados
que dejan de laborar, colocando en riesgo a la
organización, dado que otro empleado puede
utilizar dichos accesos y cometer diferentes
fraudes o llevar a la indisponibilidad de los SI.
Otra problemática del día a día es la variedad de
SI, que lleva a los almacenes de cadena a incurrir
en altos costos en la administración de los
usuarios; por ejemplo, la probabilidad de que los
usuarios olviden sus contraseñas y bloqueen sus
cuentas es bastante alta, y en consecuencia los
costos en el tema de soporte se convierten en un
asunto álgido y de difícil control que puede afectar
la continuidad de los servicios en los diferentes
puntos de atención.
Al Observar el panorama del flujo de usuarios en
los almacenes de cadena, surgen dos preguntas:
¿cómo controlar que los usuarios que salen de la
empresa sean desactivados automáticamente de
los sistemas de información?, ¿cómo permitir a los
usuarios que puedan ellos mismos cambiar sus
contraseñas y desbloquear su usuario de una
manera segura?, máxime si se tiene en cuenta que
la fortaleza empleada en la contraseña y la
cantidad de las mismas han hecho que los
usuarios se decidan por crear contraseñas
sencillas o que las escriban en pequeños recortes
cerca al computador e incluso algunos deciden
crear archivos maestros de contraseñas [1].
La respuesta a dichas preguntas podría resumirse,
en la implementación de un sistema (con el
proceso y procedimiento respectivo) que permita
realizar un control de todas las personas que se
retiran de la organización, así mismo, dicho
sistema debe permitir mediante políticas de
seguridad una conexión interactiva entre el usuario
y sistemas centralizados de autenticación de
manera que se puedan minimizar los riesgos de
suplantación de identidades y manipulación
indebida de información; ahora bien, conocidas las
respuestas a la problemática de control de
usuarios activos y la autogestión de las
contraseñas y cuentas de usuario, surgen otros
interrogantes ¿qué empresas cuentan con la
implementación
de
estos
sistemas
de
información?, ¿cuentan las empresas con la
infraestructura necesaria para la implementación
de estos sistemas?, ¿qué costo genera dicha
implementación?,
entre
otra
cantidad
de
situaciones.
Con todo el contexto se puede afirmar que existen
diferentes empresas en el mercado que manejan
dichas soluciones y que son llamadas
comúnmente (Identity Management), entre las
cuales se encuentran multinacionales de amplio
reconocimiento como IBM, Oracle, Novell,
Computer Associates. Cada una de ellas brinda la
posibilidad de manejar las identidades de una
manera muy completa, pero que implica para las
organizaciones tener que incurrir en altos costos
de implementación y soporte.
Pero, ¿toda esa costosa tecnología es capaz por
sí sola de realizar las actividades que permitan
minimizar el riesgo que tienen los Almacenes de
Cadena debido a la alta rotación de los usuarios?
2. SISTEMAS DE GESTIÓN DE IDENTIDAD
Un sistema de gestión de identidades (idM por sus
siglas en inglés – identity management) se refiere
a cómo las personas o empleados se identifican,
autorizan y administran en una o varias redes
informáticas; incluye la manera en que a los
usuarios se les genera una identidad, la protección
de la misma, la tecnología de soporte a dicha
protección y la interacción con distintos sistemas
[2].
Es un compendio de procesos de negocio, de
infraestructura tecnológica y políticas que permite
a los sistemas conectados determinar quién tiene
acceso, a que componentes está autorizado, al
tiempo que protege la privacidad y el acceso de la
información confidencial [3].
Su implementación requiere de cuatro factores
principales, la definición de roles, la propagación
de las cuentas de usuarios, inicialización del
sistema y la integración con sistemas de “Single
SignOn” [2]. Pero tal y como se menciona
anteriormente la posible implementación de un
sistema IdM requiere de inversión alta en
implementación y soporte [4].
Los grandes almacenes de cadena pueden llegar a
tener entre 30.000 y más usuarios distribuidos en
distintas aplicaciones y algunas cadenas de
almacenes de corte mediano pueden llegar a tener
incluso 8000.
41
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
En el siguiente cuadro se observa el valor que
tiene la implementación de un sistema de manejo
de identidades de las casas fabricantes Novell y
Oracle, donde se incluye todo el proceso de
soporte,
implementación,
actualización
y
licenciamiento.
Consideraciones: los valores son proyectados a 5
años y los valores son en dólares [4].
Massive= 40 mil usuarios.
Largue= 8 mil usuarios.
Tabla 1. Costos Sistema de Gestión de Identidades Novell y Oracle [4]
Se puede observar que el costo en 5 años para los
grandes almacenes de cadena puede oscilar entre
1´700.000 USD y 2´350.000 USD.
Si se considera que los márgenes de rentabilidad del
retail (Almacenes de cadena) son relativamente bajos
[5] comparados (2,2% en promedio) con otros sectores,
como por ejemplo, el de la telefonía celular en donde la
principal empresa obtuvo un margen aproximado del
26% en el año 2011 [6]; se encuentra entonces que
incurrir en esos altos costos de tecnología hace que
sea bastante difícil.
En consecuencia, innovar con un “económico”
desarrollo que permita controlar los usuarios retirados
de la organización y que su vez permita la autogestión
de usuarios para desbloqueo y actualización de la
contraseña, permitirá a dichas organizaciones ahorros
importantes que aportan al no deterioro de sus
indicadores financieros y a disminuir los incidentes de
pérdida de dinero e información por parte de la
utilización no autorizada de usuarios ya retirados.
42
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
3. ASPECTOS IMPORTANTES
A continuación una mirada a algunos aspectos
importantes a tener en cuenta en el desarrollo del
software con el que se puede innovar en los almacenes
de cadena y en otras organizaciones.
de información acorde a las funciones a desarrollar;
esta herramienta es una de las más comunes y usadas
por los Almacenes de Cadena, además es el primer
servicio donde normalmente se da vida a un usuario de
aplicación.
3.1. Costos
Los valores que se deben invertir en la implementación,
soporte, actualización y licenciamiento entre otros, de
un sistema práctico y sencillo “desarrollado en casa” “in
house”, el cual entre sus componentes posee
interfaces, archivos planos y Web Services, los cuales
son herramientas menos costosas en su puesta en
marcha y en su mantenimiento.
Por lo tanto, hay que interrelacionar el sistema de GH
con la herramienta tecnológica de control de acceso a
aplicaciones (Directorio Activo) como sistema
centralizado, esta interrelación consiste en poder lograr
que archivos y procedimientos de gestión humana
(empleados retirados) lleguen al directorio activo y éste
a su vez valide si los empleados retirados coinciden
con algún usuario de este directorio y proceda a
realizar la función de inhabilitar. Es importante tener en
cuenta que en el directorio activo se está usando el
campo ID el cual deberá estar relacionado con el
campo “cédula” del sistema de GH. En dicho sistema
debe existir un registro muy importante como la fecha
en que ingresa el empleado y la fecha fin de su
contrato laboral, esta última fecha es también llamada
fecha de retiro.
El desarrollo y puesta en marcha de un sistema in
house, está diseñado para soportar todos los usuarios
que tengan interacción con los servicios soportados por
los servidores del Directorio Activo, al igual que los que
pueda soportar la aplicación de gestión humana (GH)
que para el caso planteado a continuación se habla de
un aproximado de 40 mil usuarios.
Tabla 2. Costos sistema propio de retiro y autogestión de
usuarios (inhouse)
Costos de mano de obra, costos de implementación, soporte,
actualizaciones, licenciamiento herramienta Web Services.
Mano de Obra
8400
Instalación de servicios web services
5000
Actualizaciones
3000
Mantenimiento y control
10000
Total USD
26400
Como se puede apreciar en la Tabla 1 y la Tabla 2 la
diferencia en los costos es bastante considerable,
aunque es importante anotar que las herramientas de
Oracle y Novell son más completas que la solución
propuesta en el presente artículo, pero si bien es cierto
que lo que se pretende controlar es la autogestión del
usuario y la desactivación del usuario cuando ya no
haga parte de la empresa, con dicha herramienta se
puede gestionar al usuario en estos dos aspectos.
A continuación una explicación de cómo podría ser la
función de retiro de usuarios del aplicativo propio
(inhouse).
3.2. Manejo del retiro del usuario
Las herramientas de gestión humana (existentes en
todas las organizaciones, sobre todo para temas de
nómina y prestaciones sociales) tienen la posibilidad de
enviar o compartir toda la información de acuerdo a las
necesidades del solicitante, por tanto,
son
características fundamentales de éstas herramientas
los campos que relacionan a un individuo (empleado
interno o externo) con las distintas funciones que
realizan en la empresa y a su vez los campos que
documentan el ingreso y retiro del empleado.
Además de las herramientas de GH, debe existir la
herramienta tecnológica llamada Directorio Activo la
cual permite la creación de usuarios dando acceso a
servicios colaborativos y en red, y a distintos sistemas
La plataforma de GH debe generar archivos de
retirados todos los días, en donde, como propuesta se
plantea que genere los retirados de los últimos 30 días,
de tal forma que un archivo generado, por ejemplo, el
24 de abril contendrá los usuarios “retirados de la
empresa” del 24 de marzo al 23 de abril y podrá tener
los siguientes campos, en donde el campo con
integridad referencial deberá ser el ID del empleado.
Para que lo anterior sea satisfactorio se propone la
siguiente estructura para la interfaz del sistema de GH
al Directorio Activo (DA):
Fig. 1. Interfaz Sistema Gestión Humana.
Esta interfaz está destinada exclusivamente al retiro de
usuarios, los campos área, estado y fecha son
características propias del sistema de GH.
En la raíz del Directorio Activo se debe crear una
Unidad organizacional (Por sus siglas en inglés –
Organitacional Unit -OU-) “equipos y usuarios
deshabilitados”. Una vez generados los archivos por el
sistema de gestión humana, deberán ser colocados
automáticamente en una carpeta del controlador de
dominio, la cual puede ser predeterminada con
anterioridad y a continuación se ejecuta con ayuda del
programador de tareas el script [7] que se muestra en
el apéndice.
Como resultado de la ejecución del Script los usuarios
del directorio activo que en el campo “UserDN”
coincidan serán deshabilitados, se les quitará los
grupos del directorio activo, serán llevados a una OU
especial y en un log serán registrados “el usuario, la
OU en la que se encontraban y los grupos que tenían
43
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
en el momento de ser deshabilitados, se deberán
guardar en un archivo diario con los respectivos retiros
para así controlar la fecha y la hora en que son
retirados dado que el script está programado a una
hora especial del día.
Es importante tener en cuenta que el archivo resultante
debe ser monitoreado y estar dentro de las actividades
de la persona encargada de dicha labor, además de
salvaguardar, depurar y gestionar adecuadamente
dicho archivo.
Lo anterior demuestra que no sólo el componente
tecnológico soluciona el problema, sino que se debe
contar con personal de monitoreo que constantemente
realice gestión. Además, todos los procedimientos
deben
estar
documentados,
oficializados
y
promulgados para que las tareas no dejen de
realizarse.
Comprometer al personal que administra el software de
GH y áreas que contratan servicios externos para que
en los distintos contratos se establezca la obligación de
matricular en el sistema de GH a cada una de las
personas que prestarán servicios dentro de la
organización, deben ser muy rigurosos con la matrícula
de aquellos que requieren acceso a los sistemas de la
organización. Deben informar en que momento dejan
de prestar servicio en los almacenes de cadena. Y
cada empleado antes de retirarse deberá reclamar un
paz y salvo. Para el pago de avances y logros en los
proyectos, este documento será exigible para personal
que deba interactuar con sistemas de información y
deberá ser anexado a las distintas facturas de cobro
que periódicamente pasa el “tercero, contratista o socio
de negocios” para que le sean cancelados sus
servicios en virtud del contrato.
El documento deberá relacionar fecha, identificación
(cédula), nombre completo y sistemas de información
con los que interactúan y si deben seguir o no activos,
además, en el caso de que las personas hayan
cambiado de área o si han cambiado el uso de uno o
varios sistemas deben expresarlo.
La persona encargada de autorizar el pago es el
responsable de informar mediante “llamada de servicio
al HelpDesk” la inhabilitación de los usuarios o cambio
en los sistemas usados por el usuario.
el procedimiento que se propone baje ese número de
llamadas en un 87%, es decir, con el sistema “inhouse”
implementado sólo se recibirán en el help desk un 13%
del total de llamadas por el concepto.
Para reducir los niveles de llamadas al help desk por
los motivos anteriores, se propone la creación de una
aplicación Web que se encargará de recoger la
información de la persona que tiene problemas con su
usuario y una vez validada la información el usuario,
puede proceder a colocar la contraseña que desee,
siguiendo los requisitos de creación de contraseñas
que se tengan parametrizados en el directorio activo.
La aplicación Web usará un “Web Services” para ir al
sistema de GH a consultar la información del usuario y
para hacer la respectiva gestión en el directorio activo.
La comunicación entre el directorio activo y el Web
Service ha de realizarse haciendo uso del Protocolo
ligero de acceso a directorios (LDAP, por sus siglas en
ingles), el cual es utilizado para leer y escribir en el
Directorio Activo. Para lograr que esta comunicación
sea segura y confidencial se utiliza la tecnología Capa
de sockets seguros (SSL) - Seguridad de la capa de
transporte (TLS). Esto se hace mediante la instalación
de un certificado con un formato correcto de una
entidad emisora de certificados (CA) de Microsoft.
El Web Services se encarga de recoger la información
digitada por el usuario (Cédula y Usuario del Directorio
Activo), luego consulta en el sistema de gestión
humana, los datos correctos del usuario y a su vez trae
otros datos de forma aleatoria (sistema reto-respuesta);
estos son presentados al usuario en forma de
“selección múltiple”, dicho usuario deberá responder
adecuadamente los datos que le pertenecen, además
para mejorar las medidas de seguridad se puede
adicionar que el usuario deba llenar alguna palabra o
frase para que en la próxima ocasión sea escrita tal
cual como fue escrita la primera vez y si ha escogido
de forma acertada, la aplicación Web presenta dos
cuadros para escribir y reescribir la contraseña que el
usuario desee. El Web Services se encarga de enviar
tales credenciales al DA.
En la Fig. 2, se muestra la relación entre los
componentes de hardware y software a la hora de
realizar las respectivas validaciones del usuario a partir
de que el usuario solicita el servicio a través del
formulario de la aplicación Web.
Es importante recordar que el estándar internacional
ISO27001, en su anexo de “Objetivos de control y
Controles” en su apartado A.8.3 “Terminación o cambio
de cargo” propone que: “los derechos de acceso de
todos los empleados, contratistas y usuarios de
terceras partes a las instalaciones de procesamiento de
información y la información, deberán ser retirados a la
terminación de su cargo, contrato o acuerdo, o deben
ser ajustados al cambio.”
3.3. Autogestión del usuario
Se debe tener presente que gran parte de las llamadas
al “help desk” tiene que ver con bloqueo, desbloqueo y
reseteo de contraseñas, y por tanto, es de esperar que
Fig. 2. Flujo de la información en la autogestión.
44
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Con lo anterior se pretende mostrar diversas formas de
implementación de sistemas de información que
cumplen de alguna manera con ciertas funciones de un
manejador de identidades (identity management), con
un costo y manejo de ejecución bajo.
Para poder hablar entonces de algunas funciones del
manejador de identidades, partimos del hecho que los
almacenes de cadena cuentan con una aplicación de
GH que registra todo el personal que ingresa a la
empresa, igualmente cuentan con un sistema de
información donde al personal se le asigna un usuario
para el ingreso, por lo tanto se necesita de una
herramienta que permita interrelacionar estos 2
sistemas de información y permitir el manejo de los
usuarios, que para este caso el manejo propuesto es
inactivarlos
y
que
cada
persona
pueda
autodesbloquear y autorenovar la contraseña, de allí
que se propone la implementación de un Web Services
para dicha interconexión.
El Web Services es un sistema de información seguro
y fácil de implementar como lo menciona Javier Vacas
Gallego “los Web Services son la mejor alternativa
posible ya que posee diversas posibilidades respecto a
la integración de la seguridad, así como una
complejidad mínima en el tratamiento de los datos.
Esto es ideal para una comunicación ágil y eficaz [8].
Web Services recoge información representada en
scripts por parte de las 2 aplicaciones, gestión humana
y directorio activo, las integra y ejecuta cada función
permitiendo como se menciona anteriormente la
desactivación de los usuarios en los sistemas de
información de la empresa y el cambio de contraseña
de los usuarios, adicionalmente se propone que el
intercambio de información entre los sistemas de
información se realice a través del protocolo de acceso
ligero a directorios LDAP v3 que contiene TLS
(Transport Layer Security), lo cual permitirá agilidad y
seguridad de la información en los 2 procesos que se
están planteando de gestión de usuarios.
El Web Services deberá usar la tecnología XML que
permite el uso de un conjunto de utilidades que facilitan
el acceso a todos los usuarios de forma rápida, sencilla
e intuitiva; además al centralizar la función de
autogestión en una sola aplicación posibilitará una
única fuente documental de controles [9].
En la Fig. 3, se observa cómo sería el proceso que
debe llevar a cabo el sistema de autogestión, para
lograr que el usuario pueda desbloquearse y crear una
nueva contraseña, permitiendo continuar con las
actividades sin tener que llamar al “Help Desk”.
Fig. 3. Flujo de la autogestión para el desbloqueo y
cambio de contraseña
4. CONCLUSIONES
El manejo y gestión de usuarios es un tema demasiado
delicado y extenso, todos los sistemas de información
de las empresas tienen como punto principal: la
ejecución de procesos que dan valor a sus actividades
económicas, a su vez son los usuarios quienes
ejecutan dichos procesos, convirtiéndose en elementos
fundamentales para el normal desarrollo de SI.
El sistema de autogestión propuesto pretende reducir
el número de llamadas al “Help Desk” facilitando así el
aumento de la productividad y la reducción de costos.
La herramienta Web Services permite interconectar SI
para lograr un control más efectivo del movimiento de
los usuarios en la red de datos de la empresa.
Dentro de este esquema de administración de usuarios
el DA es el eje principal, ya que sobre este se
encuentra el registro de todos los usuarios.
Con la integración de varias herramientas tecnológicas,
DA y Web Services se pueden construir soluciones que
pueden sustituir algunas funciones de IdM.
45
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
La innovación en las empresas es fundamental, se
necesitan otras formas de hacer las cosas y que a su
vez generen valor a la compañía.
Que un usuario dependa 100% del “Help Desk” es un
inconveniente alto porque los costos antes de disminuir
en el tiempo van en aumento, por eso estas
herramientas sencillas pueden ser un diferenciador de
calidad en el servicio y de valor para la empresa. Para
el usuario es mejor dedicar dos minutos al Web
Services, que 7 minutos (apro.) tratando de que el
analista del Help Desk brinde la ayuda correspondiente.
"por
favor
coloque
el
pathcompleto.","Usuarios
a
procesar","Usuarios_a_inhabilitar.txt")
If strFilePath = vbCancel Then
MsgBox "Cancelado !!."
WScript.quit
EndIf
'Verificar que el archivo de entrada exista
If Not objFSO.FileExists(strFilePath) Then
MsgBox "El Archivo" & strFilePath & " no existe. ",_
vbCritical, "Error"
El retiro de usuarios de forma automática y oportuna
ahorra tiempos y dinero a las organizaciones, dado que
las explicaciones a las revisorías y auditorías por el no
retiro son costosas en esas dos variables, y si a eso le
sumamos los posibles fraudes que pueden ocasionarse
por el manejo de usuarios que ya no están en la
organización, es claro que ahorra dolores de cabeza.
Es importante también mencionar que la tecnología de
IdMs a pesar de ser tan costosa y de poseer un grado
alto de madurez, por sí sola no soluciona la
problemática planteada y por lo tanto se hace
necesario que todas estas tecnologías tengan un gran
componente documental y procedimental que alerte a
las personas que de otra manera tienen que ver con
los distintos procesos de la organización.
WScript.Quit
End If
'Genera log de salida
strFileOut = "salida.txt"
If strFilePath = vbCancel Then
MsgBox "ProcesoCancelado."
WScript.quit
End If
'Verifica que el archivo log exista
If Not objFSO.FileExists(strFileOut) Then
MsgBox "El archivo SALIDA.txt no existe.
The script will quit
now.",_
APENDICE: Script que deshabilita usuarios [9]
WScript.Quit
Option Explicit
End If
'On Error Resume Next
Dim strUserDN,
objUser, objOU, strNTName, strOUDN, Group,
GroupDN
Dim objRootDSE, strDNSDomain, objTrans, strNetBIOSDomain,
objgroup
Dim objFSO, strFilePath, objFile, strFileOut, objReportTextFile,
Groupmembership
procesados...?","Unidad Organizacional",_
"OU=Equipos y usuarios Deshabilitados," &strDNSDomain)
If strOUDN = vbCancel Then
End If
'Asociamos a la OU
Const ADS_NAME_TYPE_1179 = 1
Err.Clear
ConstForAppending = 8
Set objOU = GetObject("LDAP://" &strOUDN)
ConstADS_Property_Delete = 4
If Not Err.Number = 0 Then
MsgBox "Por favor verifica la OU, Proceso cancelado."
'Creacion del objeto
WScript.Quit
Set objFSO = CreateObject("Scripting.FileSystemObject")
End If
' Abrir el archivo de entrada yrecorrerlo.
' Determinar el dominio
Set objFile = objFSO.OpenTextFile(strFilePath, 1)
Set objRootDSE = GetObject("LDAP://RootDSE")
strDNSDomain = objRootDSE.Get("defaultNamingContext")
Set
objReportTextFile
=
objFSO.OpenTextFile(strFileOut,
ForAppending, True)
'Especifica el archivo de entrada
InputBox("Cual
strOUDN = InputBox ("OU donde va a mover los usuarios
WScript.quit
Const ADS_NAME_TYPE_NT4 = 3
=
' Ubicamos la OU a mover los usuarios a inhabilitar.
MsgBox "Cancelado."
Const ADS_NAME_INITTYPE_DOMAIN = 1
strFilePath
vbCritical, "Error"
es
el
nombre
del
archivo?"
&VbCrLf&VbCrLf& _
"Si el archivo no esta en el mismo directorio del VBS" &VbCrLf& _
Set objTrans = CreateObject("NameTranslate")
objTrans.Init ADS_NAME_TYPE_NT4, strDNSDomain
46
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
objTrans.Set ADS_NAME_TYPE_1179, strDNSDomain
AGRADECIMIENTOS
strNetBIOSDomain = objTrans.Get(ADS_NAME_TYPE_NT4)
' Remover trailing backslash.
strNetBIOSDomain = Left(strNetBIOSDomain, _
Len(strNetBIOSDomain) - 1)
objTrans.Init ADS_NAME_INITTYPE_DOMAIN, strNetBIOSDomain
Do Until objFile.AtEndOfStream
strNTName = Trim(objFile.ReadLine)
Los autores agradecen muy especialmente al señor
Héctor Fernando Vargas Montoya por la ayuda y
dedicación en la corrección de este artículo.
Agradecimientos también al señor Oscar Mauricio
Sánchez Medina por compartir sus experiencias con
respecto al desarrollo de scripts en plataforma de
Directorio Activo.
REFERENCIAS
If strNTName<> "" Then
On Error Resume Next
objTrans.Set
ADS_NAME_TYPE_NT4,
strNetBIOSDomain&
"\"
&strNTName
[1] A. Hovav & R. Berger. Tutorial: Identity Management
Systems and Secured Access Control, Communications
of AIS; Issue 25, p. 5, 2009.
[2] M. K. Srinivasan & P. Rodrigues, “Analysis On Identity
Management Systems With Extended State-Of-The-Art
Idm Taxonomy Factors,” in International Journal of Ad
hoc, Sensor & Ubiquitous Computing (IJASUC) Vol.1,
No.4, December 2010.
If Err.Number<> 0 Then
On Error GoTo 0
Wscript.Echo "User "&strNTName _
&" not found in Active Directory"
End if
[3] M. Berman & J. Cooper, Identity Management For The
Rest Of Us: How To Grow A New Infrastructure,
presented at the Educause Mid-Atlantic Regional
Conference, Baltimore, MD, 2006.
err.clear
on Error GoTo 0
'Remover usario de los grupos a los que pertenecia
[4] S. Curtis, The Impact of Total Cost of Ownership in IAM
investment Decisions. Rencana LLC. 2010.
err.clear
on Error Resume Next
strUserDN = objTrans.Get(ADS_NAME_TYPE_1179)
[5] FENALCO, Los Grandes Almacenes E Hipermercados
En Colombia: “Más Allá De Las Cifras”. p. 22,
Noviembre 2011.
Set objUser = GetObject("LDAP://" &strUserDN)
objUser.Put "msExchHideFromAddressLists", True
' 512eshabilitado 514 desabilitado
[6] Comunicación Celular S.A., Balance General al 31 de
diciembre de 2011. Online [Agosto. 2012].
objUser.put "UserAccountControl", 514
objuser.Put "delivContLength", "1"
[7] O. M. Sánchez M., Analista de Directorio Activo,
compilación de distintos scripts. Online [Septiembre.
2012].
objUser.SetInfo
objReportTextFile.write(strNTName)
Erase GroupMembership
[8] J. Vacas, J. Borrell & J. C. Muiño. Arquitectura
Corporativa de Web Services. Bellaterra, Junio, 2008.
GroupMembership = objUser.GetEx("memberOf")
For each Group in GroupMembership
[9] A. Baldwin, M. Cassasa, Y. Beres & S. Shiu. Assurance
For Federated Identity Management, Journal of
Computer Security, Vol. 18 Issue 4, p.14, 2010.
GroupDN = Replace(Group,"/","\/")
Set objGroup = GetObject("LDAP://" &GroupDN)
objReportTextFile.write(vbtab& objGroup.cn)
objGroup.PutEx
ADS_PROPERTY_DELETE,
"member",
Array(strUserDN)
objGroup.SetInfo
Next
objReportTextFile.Writeline(vbcrlf)
objOU.MoveHere "LDAP://" &strUserDN, vbNullString
EndIf
Loop
Msgbox "Proceso Terminado, revisar por favor"
47
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
GESTIÓN DE CONOCIMIENTO: LA SOLUCIÓN PARA DISMINUIR EL
REPROCESO EN LAS PRUEBAS DE SOFTWARE
Luz A. Perona Ossaba
Juan E. Velásquez Isaza
Universidad de San Buenaventura
[email protected]
Universidad de San Buenaventura
[email protected]
(Tipo de Artículo: Reflexión. Recibido el 27/11/2012. Aprobado el 27/12/2012)
RESUMEN
La gestión de conocimiento se ha convertido en una clave fundamental en los procesos de la ingeniería de software,
permitiendo mejorar y optimizar cada una de las actividades que se ejecutan durante todo el ciclo de desarrollo de so ftware.
Cada una de las etapas de la ingeniería de software ha adoptado de la gestión de conocimiento algunas características, de
acuerdo con las necesidades que se presentan, adecuándolos y fortaleciéndolos para reducir los tiempos y disminuir la fuga
de información dentro de las organizaciones. Es por esto que las pruebas de software han adoptado la gestión de
conocimiento como la alternativa para disminuir el reproceso en las pruebas de software.
Palabras clave
Gestión de Conocimiento (GC), Ingeniería de Software, Desarrollo de Software, Pruebas de Software.
KNOWLEDGE MANAGEMENT: THE SOLUTION TO REDUCE
REPROCESSING IN SOFTWARE TESTING.
ABSTRACT
Knowledge Management has become a fundamental key in software engineering processes, allowing the improvement and
optimization of all the activities performed during the software development cycle. Each of the stages of software engineering
has adopted some features of Knowledge Management, according to the needs, adapting and strengthening them to reduce
time and reduce the leakage of information inside companies. For this reason software testing has adopted knowledge
management as an alternative to reduce rework.
Keywords
Knowledge Management (KM), Software Engineering, Software Development, Software Testing.
GESTION DE LA CONNAISSANCE: LA SOLUTION POUR DIMINUER LE
REPROCESSUS DANS LES TESTS DU LOGICIEL
Résumé
La gestion de la connaissance est devenue comme une clef fondamentale dans les processus du génie logiciel, en permettant
d’améliorer et d’optimiser chacun des activités qui s’exécutent pendant tout le cycle du développement logiciel. Chacun des
étapes du génie logiciel a adopté quelques caractéristiques, d’après las besoins, en les adaptant et les fortifiants pour réd uire
les temps et diminuer la fuite d’information au sein des entreprises. Par conséquent les tests du logiciel on adopté la gestion de
la connaissance comme l’alternative pour diminuer le reprocessus dans les tests du logiciel.
Mots-clés
Gestion de la connaissance, génie logiciel, développement logiciel, tests du logiciel.
48
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
Para el presente artículo nos basaremos en la
bibliografía que presentamos durante el desarrollo y en
las experiencias que se han obtenido durante la vida
laboral, ejerciendo como analistas de pruebas por más
de 5 años en varios proyectos de software, desde una
perspectiva analítica, interpretativa o crítica. No se
hace referencia a las empresas para no comprometer
las metodologías y procesos de las mismas, ya que el
objetivo es presentar un artículo reflexivo.
Cuando una compañía decide invertir en un proyecto
de desarrollo de software, busca entregarle a sus
clientes (usuarios internos o externos) un sistema que
les ayude a mejorar los procesos o procedimientos que
actualmente se están llevando a cabo en la compañía.
Para lograr la satisfacción de los clientes, es necesario
garantizar la calidad del proyecto de software
desarrollado. Por esta razón el proceso de pruebas de
software se convierte en clave fundamental para lograr
los objetivos planteados al inicio del proyecto. La
inyección de defectos a través del ciclo de desarrollo de
los proyectos de software es recurrente y no se puede
evitar. Durante el proceso de pruebas se identifican los
defectos que deben ser corregidos por el equipo de
desarrollo, es en este punto donde es importante tener
identificados los errores para tomar acciones conocidas
dentro o fuera del equipo de desarrollo que permitirán
tener una solución rápida y efectiva.
Estas situaciones se presentan en todos los proyectos
de desarrollo de software, por lo que los resultados que
presentamos de nuestra investigación dentro del
artículo, se pueden aplicar tanto en pequeños como en
grandes proyectos de software, donde la principal
diferencia radica en el número de integrantes del
equipo de trabajo y el número de líneas de código
generadas al finalizar el proyecto. Dependiendo del
tamaño del proyecto, la corrección de defectos puede
ser más costosa, por esto es importante que la
solución que se plantee pueda ser estándar.
La rotación de personal en los equipos de trabajo y el
uso de nuevas tecnologías sin la capacitación
adecuada, son algunas de las causas principales para
que la presencia de defectos aumente en un equipo de
trabajo; en este punto es importante tener una buena
gestión de conocimiento dentro del equipo de trabajo o
en la compañía, permitiendo el acceso a la información
de situaciones reales que se han presentado, las
soluciones planteadas y los resultados obtenidos,
permitiendo tomar decisiones en cuanto a la mejor
solución al momento de abordar la corrección de los
defectos identificados [1].
Se han realizado varias aproximaciones en cuanto a
sistemas para implementar la gestión de conocimiento
en el proceso de pruebas de software, como el
QESuite 2.0, plataforma de administración de las
pruebas de software desarrollado por Beijing University
of Aeronautics and Astronautics (BUAA), por ahora,
corresponde a un prototipo que ha sido construido [2].
Dentro de la experiencia, hemos logrado visualizar que
para que la gestión de conocimiento sea parte
importante del proceso de pruebas de software, no es
necesario contar con costosas herramienta que ayuden
en el proceso, basta con tener la disposición y una
buena metodología para permitir que el conocimiento
se transfiera dentro del equipo de trabajo sin
limitaciones.
2. EL PROBLEMA DEL REPROCESO EN LAS
PRUEBAS DE SOFTWARE
Para las compañías de desarrollo de software,
enfrentar nuevos proyectos se convierte en un reto y en
cada uno de ellos busca mejorar las prácticas y
metodologías que utilizaron en proyectos anteriores.
Dentro del ciclo de vida de los proyectos de software,
se desarrollan las pruebas como una actividad que
busca garantizar que el producto desarrollado cumpla
con las necesidades del cliente, es por esto que se
pueden describir como el proceso permite identificar y
entregar la calidad de software como un producto
basado en la especificación que se ha dado y es
requerida por los usuarios. La medición de la calidad
del producto basada en las especificaciones de
usuario, involucra muchas personas que trabajan
juntas para este propósito, como una comunidad de
práctica [3].
Una de las preguntas más importantes es cómo
integrar eficazmente la gestión del conocimiento en el
proceso de pruebas de software para que los activos
de conocimiento se puedan transmitir y reutilizar por las
organizaciones en el proceso de pruebas [3].
Las pruebas de software son una actividad basada en
conocimiento, tanto de negocio como de metodologías
orientadas a brindar una solución real a las
necesidades del cliente. Sin embargo, el conocimiento
acerca de las pruebas de software, habilidades,
experiencia e inspiración son muy importantes ya que
le permiten a los analistas de calidad alcanzar los
objetivos planteados. Si no tiene pensamientos
abiertos, experiencias abundantes en pruebas y
competencias, la calidad de las pruebas no se puede
asegurar [2]. Es importante que los analistas de calidad
tengan criterio y argumentos válidos para enfrentar un
proceso de pruebas, esto para evitar que por
desconocimiento se omitan errores que puedan llegar a
ser críticos dentro del sistema implementado.
Las pruebas de software se basan en dos
procedimientos, verificación y validación. La verificación
consiste en hacer chequeos que certifiquen que el
sistema funciona de acuerdo con las especificaciones y
la validación consiste en asegurar que el sistema hace
lo que se supone deba hacer, es decir que la
especificación este correcta [4].
Si miramos el proceso de pruebas de software como el
conjunto de actividades relacionadas con 1) verificación
del desarrollo del producto, este debe estar basado en
las necesidades del cliente, 2) reporte de los defectos
49
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
encontrados y 3) solución de los defectos por parte del
equipo de desarrollo, nos damos cuenta que este
proceso se puede repetir en muchas oportunidades,
hasta que se logre encontrar una solución óptima y
adecuada para el defecto encontrado. Es por esto que
el reproceso es tan evidente dentro de esta etapa del
ciclo de vida de desarrollo. La principal razón, que
genera tanto reproceso se deriva de que los
desarrolladores al momento de enfrentarse con un
desarrollo no encuentran a su disposición la
información necesaria para hacerlo o porque no se
tiene la capacidad de indagar o al entrar a resolver
estos incidentes no encuentran información que les
pueda minimizar el trabajo debido a que es posible que
otros desarrolladores o a ellos mismos les haya pasado
algo similar pero ya no se acuerdan cómo lo resolvieron
o simplemente la persona o personas que de alguna
manera pudieran colaborar ya no se encuentran en la
organización.
Esta problemática se presenta en todos los proyectos
de software, sin importar el tamaño; pero mientras más
grande el proyecto puede llegar a ser más crítico y
costoso, ya que cualquier solución implementada para
corregir el defecto puede afectar otros artefactos de
desarrollo, generando nuevos errores. Es en este punto
es importante involucrar la gestión de conocimiento en
el proceso de pruebas de software, ya que desde la
perspectiva del analista de calidad se puede identificar
situaciones previamente encontradas y las soluciones
que se han entregado a ellas.
Con la gestión del conocimiento se pueden establecer
formas de manejar la información que otras personas
conocen y que no se ha dejado almacenada en ningún
medio, ayudando a formar grupos de trabajo que se
encarguen de entrevistar los diferentes participantes o
invitarlos a formar bases de datos de conocimiento
acerca de todas las experiencias, de todos los
incidentes que se les hayan presentado en algún
momento del ciclo de desarrollo. De esta forma se
podrían minimizar los costos en la solución de
incidentes y permitir que las pruebas de software hagan
parte importante de este ciclo de desarrollo. Una vez
se identifiquen los incidentes durante el proceso de
pruebas, el desarrollador tiene la capacidad y la
información a la mano para darle solución de manera
más rápida y eficaz a dichos incidentes.
dentro de la mentalidad del ser humano está que
mientras se sienta dueño del conocimiento, se tendrá
asegurado un lugar en la organización. Lograr que el
conocimiento se extienda, implica que las personas
sean conscientes de la importancia de trabajar en
equipo, buscando el logro de objetivos y metas, sin
importar quién sea el dueño del conocimiento.
El concepto de gestión de conocimiento, surgió a
mediados de 1980 por la necesidad de obtener
conocimiento de la "avalancha de información" y fue
utilizado principalmente como un término del mundo de
los negocios [5]. Más de 10 años de investigación en la
gestión de conocimiento promueven y marcan muchas
herramientas de tecnologías de información -IT- para la
gestión, pero no todas satisfacen los requerimientos
particulares de cada empresa, especialmente en
campos especializados.
Desde que se comenzó a escuchar el concepto de
gestión de conocimiento, se evidenciaba la
transformación que estaba ocurriendo en muchas
organizaciones [6].
Entonces, ¿por qué es importante que la gestión de
conocimiento se adhiera a los procesos de ingeniería
de software? Porque los procesos de ingeniería, en
especial el desarrollo de software, es muy cambiante,
requiere de gran conocimiento del negocio e involucra
muchas personas trabajando en diferentes fases y
actividades [5]. Es en este punto donde vemos que la
gestión de conocimiento puede apoyar el proceso de
pruebas de software, porque en proyectos en los que la
rotación de personal es muy alta el conocimiento
previamente adquirido, se va con las personas y en
ocasiones recrear situaciones detectadas con
anterioridad puede tener un costo muy alto por el
desconocimiento que se tiene tanto del negocio como
de las metodologías utilizadas.
Estudios previamente realizados [5], nos llevan a
entender que para implementar la gestión de
conocimiento en una compañía es necesario enfocarse
en la aplicación de siete procesos:
Se debería entonces entender la gestión de
conocimiento, como una disciplina que permite
consolidar el capital intelectual en las organizaciones.
La gestión de conocimiento apoya no sólo los
conocimientos técnicos de una empresa, sino también
el dónde, quién, qué, cuándo y por qué suceden las
cosas [5].
Lo anterior nos lleva a que dentro de las
organizaciones, el conocimiento no se encuentre
centralizado en un grupo particular de personas, sino
que se pueda ir transfiriendo a otras personas que lo
requieran. Es aquí, donde la gestión del conocimiento
tiene su primer obstáculo, ya que todos sabemos que
Fig. 1. Integración de los procesos de gestión de
conocimiento (Elaboración propia)
Teniendo en cuenta los procesos de la gestión de
conocimiento aplicada al proceso de pruebas, en cada
uno de ellos obtendríamos resultados que mejorarían el
50
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
reproceso que se presenta actualmente en esta etapa
del ciclo de desarrollo; la creación, permite crear
conocimiento previamente adquirido, sea dentro o fuera
del proyecto en curso; la adquisición, permite obtener
conocimiento de los demás integrantes de proyecto
que ayuden a solucionar incidentes detectados con
características similares a otros ya identificados
previamente; la identificación puede llegar a ser un
poco más compleja, debido a la cantidad de posibles
soluciones que surjan dada la similitud en errores
previamente detectados; la adaptación, permite
mantener actualizadas las bases de conocimiento, para
que los miembros de la organización tengan acceso a
ella en el momento que los requieran, es importante
establecer políticas de actualización de la información,
pero sobre todo se debe destinar el tiempo y los
recursos para realizar esta actividad que sin ella la
gestión de conocimiento no tendría la información
disponible; la distribución de conocimiento es el
proceso más importante de la gestión de conocimiento,
debido a que sin unos canales adecuados de
distribución de la información, no sería posible acceder
a ella en el momento en que se requiera; la aplicación
del conocimiento, permite crear conciencia en los
miembros de los equipos de desarrollo de aplicar el
conocimiento existente para agilizar los procesos y
minimizar el riegos de reproceso por soluciones no
adecuadas.
Luego de implementar gestión de conocimiento dentro
de los procesos de ingeniería de software, vemos que
es posible mejorar el reproceso en cada una de las
etapas, incluyendo el proceso de pruebas de software
tema de este artículo.
El análisis realizado del proceso de pruebas de
software, en algunas compañías, usando los principios
primarios de la gestión de conocimiento, fueron
identificados cinco problemas importantes en el
proceso [2]:
1. Baja rata de reuso de conocimiento en las pruebas
de software: El conocimiento en las pruebas de
software no se ha almacenado concienzudamente.
Algunas bases de conocimiento se han
implementado pero generan gran discusión en los
grupos de trabajo.
público. Adicionalmente, la rotación de personal
lleva a la pérdida de conocimiento en pruebas.
5. Imposible obtener la más óptima distribución del
recurso humano rápidamente: La gestión de
conocimiento es una integración entre personas,
procesos y tecnología, donde las personas son la
parte más importante. Sin tener un conocimiento
adecuado de la información de cada persona, los
recursos no se asignan adecuadamente dentro de
los proyectos de software.
De acuerdo a lo planteado en el artículo Administración
de Conocimiento en Desarrollo [1], los autores
describen cuál es el conocimiento, cómo lo puede usar
un desarrollador y cómo se puede implementar en la
práctica una base que lo contenga.
A. Conocimiento sobre la corrección de defectos
Primero se debe definir cuál es el conocimiento
asociado a la corrección de defectos. Esto quiere
decir que la información que se recopila acerca de un
defecto y de su corrección puede ser orientada para
facilitar la corrección de defectos similares en el
futuro. Por esta razón, se considera apropiado
definir un modelo general de defectos, en el cual
todos los defectos siguen una caracterización
estándar bajo la cual se tipifica su descripción y su
solución.
B. Análisis y uso del conocimiento
Una vez se cuenta con una base de casos el
siguiente problema a resolver es cómo hacer uso de
ella. Para esto se decidió adoptar el modelo de
razonamiento basado en casos (Case-based
reasoning) o CBR. Este modelo sirve para abordar
problemas complejos, cuyo análisis por medio de
aproximaciones convencionales no es posible o no
da buenos resultados. El supuesto principal del CBR
es simple: problemas similares deben tener
soluciones similares.
En síntesis, este razonamiento consiste en que, dado
un problema, obtengamos una solución a éste por
medio de la adaptación de una o varias soluciones
dadas a problemas parecidos. La figura 2 muestra el
esquema general de este razonamiento.
2. Barreras en la transferencia de conocimiento en las
pruebas de software: La administración del
conocimiento de pruebas es muy difícil de
transmitir.
3. Ambiente pobre para compartir el conocimiento de
las pruebas de software: Los miembros del equipo
tienen poco tiempo en común para compartir
experiencias.
4. Pérdida significativa en el conocimiento de las
pruebas de software: Los conocimiento y
experiencias obtenidas por el equipo de trabajo en
pocas ocasiones se convierte en conocimiento
Fig. 2. Esquema general de este razonamiento
(Elaboración propia)
51
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
La razón principal para su adopción es que un defecto
no puede solucionarse siguiendo siempre los mismos
métodos, ya que no hay procedimientos sistemáticos
que ayuden a localizarlos y a corregirlos. No obstante,
la experiencia adquirida cuando se corrigen los
defectos sí puede servir para solucionar los defectos
similares que aparezcan en el futuro; y es en esa
experiencia la que deberían aprovechar los
desarrolladores en el momento en que intentan corregir
uno en particular.
Si logramos identificar dentro del proceso de pruebas
de software, las posibles soluciones que se puedan
implementar para los defectos encontrados, el
desarrollador tendría una visión más clara de la
solución requerida por el analista de calidad, de
acuerdo con las necesidades de los clientes.
Como parte de la estrategia para mejorar las prueba de
software y parte de ellos está basada en la creación de
un sistema de soporte a la toma de decisiones. Sin
embargo, mucho del esfuerzo es dedicado al proceso
de extracción de conocimiento, para que los errores no
se lleven a la base de conocimiento, aunque no es
razonable esperar una base de conocimiento libre de
errores. Muchas herramientas y procedimientos se han
desarrollado para ayudar a detectar errores en los
sistemas de apoyo en la toma de decisiones [4]. Pero
no sólo se han desarrollado herramientas para detectar
errores en las bases de conocimiento, sino que
también se han adelantado investigaciones de cómo
incluir herramientas de gestión de conocimiento en el
proceso de pruebas de software.
Se han invertido grandes esfuerzos tanto en tiempo
como en dinero para lograr implementar una
herramienta que permita gestionar el conocimiento en
las pruebas de software. Grandes empresas como
IBM y Microsoft, han invertido dinero y puesto a
disposición mano de obra para la investigación en
gestión de conocimiento y han presentado una serie de
teorías y desarrollado productos de software. Debido a
los grandes esfuerzos realizados, sin obtener los
resultados esperados se ha instaurado la conferencia,
KBSE (Knowledge-Based Engineering Conference
Software) que se celebra cada año, en la que se
discute el último avance de la gestión del conocimiento
en las pruebas de software [7].
En cuanto a software desarrollado para lograr incluir la
gestión de conocimiento en las pruebas de software se
refieren al prototipo desarrollado por Beijing University
of Aeronautics and Astronautics (BUAA), el sistema
actual es un subsistema de QESuite2.0. El sistema es
una plataforma de software de gestión del
conocimiento orientada al proceso de prueba. El
sistema utiliza el conocimiento del ciclo de vida como
guía. Éste puede ayudar a las empresas a almacenar,
gestionar, buscar y compartir todo tipo de
conocimientos mediante el uso de los documentos de
conocimiento. Se puede evaluar el nivel de
conocimientos del personal utilizando mapas de
conocimiento.
El sistema confirmará el personal que tenga
conocimiento por las estadísticas y que van a mejorar
la cultura de intercambio de conocimientos en la
empresa. El módulo de mapas de conocimiento es el
núcleo del sistema. Éste se divide en dos partes: la red
de especialistas y la construcción del equipo de
pruebas. Los usuarios comunes pueden editar su
experiencia de proyecto. Los analistas de conocimiento
tienen derecho a seleccionar a otros usuarios para
editar su experiencia de proyecto. Después de editar la
experiencia de proyecto, el sistema automáticamente
definirá el nivel de conocimiento de los usuarios en
función del tiempo que los usuarios utilizan estas
tecnologías. Para alcanzar el nivel de especialista, éste
debe ser editado por el analista de conocimiento [2].
En el entorno local, se han realizado esfuerzos para
involucrar el proceso de pruebas en etapas más
tempranas del ciclo de desarrollo, mejorando la calidad
de cada uno de los entregables. Como resultado de
estas prácticas se han obtenido avances y resultados
satisfactorios:
1. Conocimiento del negocio desde el comienzo del
ciclo, cuando el analista de calidad se involucra
desde la etapa de conceptualización.
2. Especificación de requerimientos apoyada por el
analista de calidad orientada a soluciones posibles
técnicamente.
3. Desarrollo de software basado en pruebas.
Corresponde a una nueva práctica de desarrollo
conocida como TDD (Test Driven Development)
que consiste en que el desarrollo se realice basado
en los casos de prueba diseñados por el analista
de calidad, garantizando que el desarrollo
realmente está acorde con las necesidades del
cliente.
Si miramos estos puntos como orientados a la gestión
de conocimiento aplicada al proceso de pruebas de
software, vemos que:
1. Se minimiza el reproceso por las diferencias en la
interpretación de los requerimientos, entre el
analista de calidad y el desarrollador.
2. Se permite la integración de cada uno de los
actores del ciclo de desarrollo, especialmente entre
los roles analista de calidad y desarrollador.
3. La utilización de los TDD, permiten que el
desarrollador retroalimente los casos de prueba
diseñados por el analista de calidad o diseñar
nuevos casos que permitan garantizar las
necesidades del cliente en el proyecto de software.
4. El número de errores encontrados en la etapa de
pruebas se disminuye, debido a que el
desarrollador ejecuta los casos de prueba al
finalizar la etapa de desarrollo.
52
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
3. CONCLUSIONES
La gestión de conocimiento viene a apoyar a las
organizaciones, para que el proceso de administración
del conocimiento sea más efectivo y eficaz, permitiendo
que éste pueda estar disponible en todo momento para
los miembros de la organización.
Las investigaciones desarrolladas para integrar la
gestión de conocimiento con las pruebas de software,
han arrojado resultados tanto teóricos como prácticos,
pero aún hace falta realizar más investigaciones que
permitan obtener mejores resultados en el proceso,
que realmente garanticen que el reproceso que se
genera en las pruebas de software se disminuye en
todos los proyectos, sin importar el tamaño o
características particulares.
Cuando una compañía logre implementar de manera
exitosa un buen proceso de gestión de conocimiento
aplicado al proceso de pruebas de software, se podría
garantizar que los tiempos de ejecución de la etapa de
pruebas se verían reducidos significativamente y la
capacidad de identificación y solución de los mismos
será más efectiva.
[2]
[3]
[4]
[5]
[6]
REFERENCIAS
[7]
[1] F. Romero, R. Rueda, N. López & R. Casallas.
“Knowledge Management in Software Development
to Reduce Defect Correction Effort”, presentado a
III Congreso Colombiano de Computación,
Medellín, 2008.
L. Xue-Mei, G. Guochan, L. Yong-Po & W. Ji.
Research and Implementation of Knowledge
Management Methods in Software Testing
Process. IEEE 978-0-7695-3688-0/09.International
Conference on Information Technology and
Computer Science, 2009.
R. Abdullah, Z. Darleena Eri & A. Mohamed Talib.
A model of knowledge management system in
managing
knowledge
of
software
testing
environment. IEEE 978-1-4577-1531-0/11. 5th
Malaysian Conference in Software Engineering
(MySEC), 2011.
A. Terry Bahill, Fellow, IEEE, K. Bharathan &
Richard F. Curlee. How the testing techniques for a
decision support system changed over nine years.
IEEE Transactions on Systems, Man, and
Cybernetics, Vol. 25, No. 12, December 1995.
l. Rus & M. Lindvall. Knowledge Management in
Software Engineering. IEEE Software, pp. 26-38,
2002.
J. Ward & A. Aurum. Knowledge Management in
Software Engineering – Describing the Process.
Proceedings of the 2004 Australian Software
Engineering Conference (ASWEC’04), 2004.
Y. L. Ji Wu, & X. L. Guochang Gu, Investigation of
Knowledge Management Methods in Software
Testing Process, International Conference on
Information Technology and Computer Science,
IEEE 978-0-7695-3688-0/09, 2009.
53
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
IDENTIFICACIÓN, REFERENCIACIÓN Y ANÁLISIS DE LOS VECTORES
ESTRATÉGICOS DEL PLAN ESTRATÉGICO DE CIENCIA, TECNOLOGÍA E
INNOVACIÓN DEL TOLIMA
Alexis A. Aguilera Alvear
Centro de Productividad del Tolima
[email protected]
(Tipo de Artículo: Investigación. Recibido el 28/11/2012. Aprobado el 27/12/2012)
RESUMEN
Como parte de las actividades metodológicas para la formulación del Plan Estratégico de Ciencia, Tecnología e Innovación del
Tolima (PECTIT), se propone la realización de la referenciación internacional con el propósito de identificar los vectores
estratégicos de Sistemas Regionales de Ciencia, Tecnología e Innovación (SRCTI) que han contribuido para un “buen u
óptimo” desempeño del Sistema como parte del desarrollo socio-económico, productivo, ambiental y tecnológico de regiones
extranjeras.
El ejercicio mencionado involucró a cinco regiones, ubicadas en Brasil, Chile, Italia, México y España, seleccionadas debido a
sus buenas actuaciones sociales, ambientales y económicas, que se han basado en la ciencia, la tecnología y las estrategias
de innovación.
La identificación de determinados vectores estratégicos apoyará RSTIS Tolima para priorizar estrategias y programas como
componentes PECTIT, para ser ejecutado en el corto, mediano y largo plazo.
Palabras clave
Sistemas Regionales de Ciencia, Tecnología e Innovación; Vectores Estratégicos; Plan Estratégico de Ciencia, Tecnología e
Innovación; Referenciación; Brechas; Tolima.
IDENTIFICATION, BENCHMARKING AND ANALYSIS OF THE MAIN
VECTORS OF THE STRATEGIC PLAN FOR SCIENCE, TECHNOLOGY AND
INNOVATION OF TOLIMA-COLOMBIA
ABSTRACT
As part of the methodological activities for the development of the Strategic Plan for Science, Technology and Innovation of Tolima,
Colombia, it is proposed the implementation of international benchmarking in order to identify the strategic vector of Regional
Systems of Science, Technology and Innovation that have contributed to "good or excellent" performance of the system as part of
socioeconomic, productive, environmental and technological development of foreign regions.
The above mentioned exercise involved five Regions, located in Brazil, Chile, Italy, Mexico and Spain, selected because of its good
social, environmental and economic performances, which have been based on science, technology and innovation strategies.
The identification of selected strategic vectors will support Tolima RSTIS to prioritize strategies and programs like the components
of the Strategic Plan for Science, Technology and Innovation of Tolima, in order to be executed in short, medium and long term.
Keywords
Regional Systems of Science, Technology and Innovation; Strategic Vectors; Strategic plan for Science, Technology and
Innovation; Benchmarking; Gaps; Tolima.
IDENTIFICATION, RÉFÉRENCEMENT ET ANALYSE DES VECTEURS
PRINCIPAUX DU PLAN STRATÉGIQUE DE SCIENCE, TECHNOLOGIE ET
INNOVATION DU TOLIMA-COLOMBIE
Résumé
Comme une partie des activités méthodologiques pour la formulation du Plan Stratégique de Science, Technologie et
Innovation du Tolima, Colombie, on propose la réalisation du référencement international avec le but d’identifier les vecteurs
stratégiques du Systèmes Régionaux de Science, Technologie et Innovation (SRCTI) qui ont contribué à un « bon ou optimal »
performance du Système comme partie du développement socio-économique, productif, environnemental et technologique des
régions étrangères.
54
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Cet exercice est associé à cinq régions du Brésil, le Chili, l’Italie, le Mexique et l’Espagne qui ont été sélectionnés à cau se de
leurs réalisations d’ordre social, environnemental et économique, qui se fondent sur la science, la technologie et des stratégies
d’innovation.
L’identification de quelques vecteurs strategiques aidera à RSTIS pour prioriser des stratégies et programmes comme
components du Plan Stratégique de Science, Technologie et Innovation pour les exécuter à court, moyen et long terme.
Mots-clés
Systèmes régionaux de Science, Technologie et Innovation, vecteurs strategiques, Plan Stratégique de Science, Technologie
et Innovation, référencement, brèche, Tolima.
55
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
La ley 1286 de 2009, Ley de Ciencia y Tecnología, establece
entre sus propósitos y mandatos que el Departamento
Administrativo de Ciencia, Tecnología e InnovaciónCOLCIENCIAS formule el Plan Nacional de Ciencia,
Tecnología e Innovación teniendo en cuenta las metas y
objetivos de los Planes Estratégicos Departamentales de
Ciencia, Tecnología e Innovación (PEDCTI) y con ello
cumpla con el objetivo establecido en dicha ley el cual
pretende “fortalecer el desarrollo regional a través de
políticas
integrales
de
descentralización
e
internacionalización
de
las
actividades
científicas,
tecnológicas y de innovación, de acuerdo con las dinámicas
internacionales” [1].
De otra parte, la mencionada Ley establece en sus artículos
26, 27 y 28 que, le corresponde a las entidades territoriales
incluir programas, proyectos y actividades de fomento de la
ciencia, la tecnología y la innovación (CTeI) en sus
respectivos Planes de Desarrollo.
Colciencias como ente del Sistema Nacional de Ciencia,
Tecnología e Innovación (SNCTI) se dio a la tarea de
fomentar e impulsar la formulación de los PEDCTI con el
propósito de dar cumplimiento a los mandatos de ley,
integrar a los actores regionales en el SNCTI y lograr un
modelo productivo social sustentado en la generación, uso y
apropiación del conocimiento relacionado con las
potencialidades y realidades de los territorios.
Inicialmente entre 2008 y 2009, Colciencias realizó un apoyo
directo a través de convenios interinstitucionales a varios
departamentos para la formulación de su PECTIT. Entre
estos departamentos se encuentran: Antioquia, Risaralda,
Bolívar, Valle del Cauca, Huila y Bogotá. En 2010 la
convocatoria 539-2010 titulada “Conformar un Banco de
Proyectos para Apoyar la Formulación de Planes
Estratégicos Departamentales de Ciencia, Tecnología e
Innovación” se lanzó para 23 departamentos, entre ellos el
Tolima.
De esta manera, el Centro de Productividad del Tolima fue
seleccionado como el ejecutor para la Formulación del
PECTIT a partir de una metodología coherente y sistemática
con los propósitos establecidos por Colciencias, entre los
cuales se encuentra la realización de una referenciación
internacional para la identificación de los ejes o vectores
estratégicos, pilares de los programas y proyectos que se
definan en el Plan.
En tal sentido, este artículo presenta los resultados de la
referenciación internacional para el PECTIT.
2. DESARROLLO
La referenciación internacional para la identificación de los
ejes o vectores estratégicos del PECTIT tomó como soporte
metodológico las brechas tecnológicas y la vigilancia
tecnológica.
En un sentido amplio el análisis de brechas busca la
comparación con los mejores referentes con el ánimo de
identificar, adaptar e implementar estrategias para mejorar
los resultados en una organización [2]. Entre tanto, la
vigilancia tecnológica es una metodología para la búsqueda,
captación, procesamiento y análisis de información de
carácter científico, tecnológico, político, normativo,
económico, ambiental, entre otros para aportar elementos de
juicio a la toma de decisiones en un campo, área, institución
o región [3].
La aplicación de la metodología de brechas tecnológicas
para desarrollar la referenciación internacional, tomó solo
algunos elementos de ésta. En tal sentido, no se llegó hasta
la comparación y medición de distancias entre los referentes
y el Departamento del Tolima. La metodología de vigilancia
tecnológica se aplicó para la búsqueda de información
secundaria de los referentes seleccionados para los ejes
estratégicos.
Para el caso del PECTIT, la referenciación parte de una serie
de variables de la planificación en CTeI de regiones
internacionales, que den lugar a su análisis como modelo y
con ello, estudiar la posibilidad de adaptar las prácticas de
los referentes.
Por lo anterior, el desarrollo de la referenciación para el Plan
parte de la metodología de brechas tecnológicas para
realizar la definición de las variables o criterios a estudiar; la
selección de los referentes; la construcción de diagnóstico
del desempeño científico-tecnológico; y se apoya en la
vigilancia tecnológica para la referenciación de cada variable
o criterio; y la construcción de las conclusiones como
insumos para el PECTIT. En síntesis, las actividades
metodológicas son las siguientes.
Tabla 1. Actividades metodológicas de la referenciación
internacional
Metodología
Actividad
Producto
Definición de los
Criterios para la
criterios de la
realización de la
referenciación
referenciación
Brechas
internacional
Tecnológicas
Propuesta y
selección de
Regiones a estudiar
regiones
Estructura,
Identificación de la
políticas, actores,
estructura del
programas del
Sistema Regional
Sistema Regional
de Ciencia,
de Ciencia,
Tecnología e
Tecnología e
Innovación de las
Innovación de
regiones referentes.
regiones referentes
Referenciación de
las variables o
Referenciación de
Vigilancia
criterios (vectores y
las variables o
Tecnológica
estrategias de la
criterios para las
planificación de
regiones
ciencia, tecnología
seleccionadas
e innovación)
Conclusiones para
el aporte al Plan
Estratégico de
Conclusiones
Ciencia, Tecnología
e Innovación del
Tolima
Socialización de los Presentación de
resultados
resultados
De igual manera, es importante mencionar que la
referenciación internacional se condicionó a la disponibilidad
de información secundaria, consultada en Internet, de cada
uno de los referentes.
2.1. Resultados
En primer lugar, se hace referencia al concepto de Sistema
Regional de Innovación (SRI) el cual no tiene una definición
plenamente aceptada y siguiendo la exposición general que
hacen Asheim y Gertler [4] se concibe como “la
56
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
infraestructura institucional que apoya a la innovación en la
estructura productiva de una región”.
Por otra parte, un Sistema de Ciencia y Tecnología (SCyT)
se compone de los actores que producen conocimiento en
donde el rol principal lo tienen las universidades y los centros
de investigación y desarrollo tecnológico.
En la integración de los dos conceptos anteriores surgen los
Sistemas Regionales de Ciencia, Tecnología e Innovación
(SRCTI) como modelo para el entendimiento de los arreglos
para el fomento de la CTeI en el ámbito local. Es
precisamente, Cooke en 1992 quien habló por primera vez
acerca del concepto integrador y señaló que los SRCTI
están integrados por dos subsistemas: 1) Subsistema de
generación de conocimiento o infraestructura de apoyo
regional (laboratorios de investigación públicos y privados,
universidades, agencias de transferencia tecnológica,
organizaciones de formación continua) y 2) Subsistema de
explotación de conocimiento o estructura de producción
regional (empresas); lo cual permite integrar los conceptos
de Sistema Nacional de Innovación (SNI) y SNCTI.
Así mismo, el Banco interamericano de desarrollo -BID- [5]
identifica claramente cuatro subsistemas: 1) el Subsistema
de generación de conocimiento en el cual se encuentran los
actores como universidades, centros de investigación y
demás agentes relacionados con la actividad académica y
de investigación. 2) Subsistema de explotación del
conocimiento conformado por las empresas. 3) Subsistema
de apoyo a la investigación integrado por las instituciones de
soporte a la infraestructura física, de maquinaria, de soporte
tecnológico y de servicios avanzados. 4) Subsistema de
financiación conformado por las instituciones del sector
bancario, los agentes gubernamentales que disponen
recursos para la investigación, las agencias de cooperación
nacional e internacional, entre otros.
A partir de esta conceptualización se aborda la
referenciación internacional como un proceso para conocer y
comprender los ejes estratégicos concebidos como los
soportes estructurales de los SRCTI de regiones pares al
departamento del Tolima.
De igual manera, es importante mencionar que estas
regiones cuentan con políticas y planes para fomento de la
CTeI y cada uno de estos define claramente los vectores del
SRCTI y los programas asociados que permiten su
desarrollo.
2.3. Variables de comparación (vectores de los
SRCTI)
Con base en la selección de referentes de comparación, se
procedió a realizar una revisión de las políticas, documentos
de direccionamiento estratégicos o planes de CTeI con el
propósito de identificar y determinar los vectores estratégicos
y sus respectivos sub-vectores de los SRCTI respectivos.
Es importante aclarar el significado que tiene los vectores
estratégicos para efectos de la referenciación internacional.
Por vector estratégico se entiende como los aspectos
cruciales que actúan como obstaculizadores y facilitadores
en el funcionamiento del SRCTI, por ende, son considerados
como elementos relevantes para orientar el accionar de una
política de la CTeI.
Luego de la revisión de los Planes o Políticas de CTeI de los
referentes seleccionado, se propone el abordaje de las
siguientes variables de comparación (vectores estratégicos)
los cuales son comunes en todos los casos. Las variables de
comparación son las siguientes.
Institucionalidad
Recursos
Humanos
Financiación
Redes
Infraestructura
Programas de
Gestión
Fig. 1. Vectores estratégicos para referenciación
internacional
2.2. Identificación y Selección de Referentes
Para seleccionar las regiones referentes se estableció una
serie de criterios, estos son:




Referentes latinoamericanos y europeos.
Apuestas productivas similares al Tolima (Agroindustrial
- Agricultura - Textil - Turismo - Minería - Piscícola).
Condiciones medioambientales similares (clima Tropical
- sin tener en cuenta si es región costera).
Política o plan de CTeI.
Estos criterios tienen el propósito de identificar regiones
extranjeras con condiciones ambientales y productivas con
un grado de similaridad al Tolima y que cuenten con un
direccionamiento claro y de largo plazo en materia de CTeI.
Así mismo, las regiones referentes son escogidas por contar
con un desempeño socio-económico soportado en el
desarrollo científico, tecnológico y de innovación. Bajo los
cuatro (4) criterios mencionados, las regiones propuestas
son:





Pernambuco - Brasil [6]
O´Higgins - Chile [7]
Michoacán - México [8]
Galicia - España [9]
Emilia Romagna - Italia [10]
Cada de una de estas variables de comparación (vectores)
tiene, a su vez, una serie de sub-variables (sub-vectores). La
revisión realizada a cada uno de los referentes permitió
identificar los sub-vectores que dinamizan o desarrollan el
eje respectivo. Estos son:
Tabla 2. Vector y sub-vectores de los SRCTI de regiones
referentes
Vector
Sub-vectores
 Órgano rector
 Políticas de CTeI
 Política
regional
con
Institucionalidad
componente de CTeI
 Actores
 Planes de CTeI
 Maestría
Recursos
 Movilidad
Humanos
 Doctorados
 Jóvenes investigadores
 Instrumentos de financiación
Financiación
 Fondo regional de CTeI
 Cooperación nacional
Redes
 Cooperación internacional
Infraestructura de  Sistema de información
CTeI
 Programas para dotación y
57
A continuación se presenta la comparación de los vectores y
sub-vectores para cada una de las regiones referentes,
incluyendo al Tolima.
Infraestructur
a para la
Investigación
Programas de Gestión de CTI
Institucionalidad
O-Higgins
Galicia
Pernambuco
Emilia
Romagna
Tolima
NO
SI
NO
NO
NO**
SI
SI
SI
SI
SI
SI
Tolima
Emilia
Romagna
Pernambuco
Redes
Científicas y
Tecnológicas
Michoacán
Financiación
Ejes
Tabla 3. Referenciación de regiones para cada vector
estratégico
SI
Galicia
Ejes
Programas
de
Formación
(MaestríaSI
SI
SI
SI
SI
NO**
DoctoradosMovilidadjóvenes
investigadore
s)
Relaciones
de
Cooperación
Científica y SI
SI
SI
NO
SI
NO
Tecnológica
en el orden
regional
y
nacional
* La política de CTeI de Pernambuco es considerada como
el Plan de CTeI.
** Programas promovidos por el Plan de Desarrollo del
Tolima [11], pero que no se encuentran en ejecución u
operación.
2.4. Comparación de referentes
Fondo
Regional CTI
Instrumentos
de
financiación
(Convocatori
as)
Órgano
rector
Actores
Política
Regional con
componente
CTI
Política
de
CTI
(leyes,
decretos,
acuerdos)
Plan de CTI
Apropiación
CTI
Sectores
Productivos o
Industriales
Apoyo a la
creación de
empresas de
base
tecnológica
Propiedad
Intelectual
Iniciación
científica
Apoyo a la
Innovación
Sistemas de
Información
Dotación,
adquisición o
desarrollo de
infraestructur
a para la CTI
O-Higgins
Programas de
gestión






Sub-vectores
desarrollo
Propiedad intelectual
Emprendimiento
Apropiación de CTeI
Iniciación científica
Apoyo a la innovación
CTeI aplicado a sectores
estratégicos
Recursos
Humanos para la
Investigación
Vector
Michoacán
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
La revisión de los vectores y sub-vectores para las regiones
referentes, permite establecer las siguientes conclusiones:
SI
SI
SI
SI
SI
SI
SI
SI
SI
SI
SI
SI


SI
SI
NO
SI
NO
SI
SI
SI
SI
SI
SI
SI

SI
SI
SI
NO*
SI
NO
SI
SI
SI
SI
SI
SI
SI
SI
SI
SI
SI
NO**



SI
NO
SI
SI
SI
NO**

NO
NO
NO
NO
SI
NO
SI
NO
NO
NO
NO
SI
NO
NO
SI
SI
SI
NO**
SI
NO
NO
SI
SI
SI
NO
NO
SI
SI
NO
NO



Todos los vectores estratégicos son comunes en las
regiones seleccionadas.
Algunos sub-vectores son comunes para todas las
regiones, entre ellos: instrumentos de financiación;
reconocimiento oficial de actores de SRCTI; existencia
de un órgano rector del SRCTI; programas de
apropiación de CTeI; programas de apoyo a sectores
productivos y; programas de apoyo para la formación de
recursos humanos en CTeI.
Los programas de iniciación científica (niños, jóvenes)
solo se promueven en Michoacán (México) [8].
Los programas de apoyo a la propiedad intelectual solo
se promueven en Emilia Romagna (Italia) [10].
Los fondos regionales de CTeI se han constituidos en
Michoacán y Galicia (España) [9], lo cual indica que no
es una condición para desarrollar los SRCTI.
Se puede afirmar que todas las regiones cuenta con
planes de CTeI. Aunque la matriz indica que
Pernambuco no cuenta con planes de CTeI, se
considera que la política de CTeI es el Plan de CTeI,
según lo manifestado en la propia política.
Los sistemas de información son sub-vectores
emergentes en los SRCTI analizados, toda vez que se
han incorporado de manera reciente (últimos cuatro
años) en regiones como Michoacán, Pernambuco y
Emilia Romagna [6], [8], [10].
Las políticas de desarrollo regional han posicionado a la
CTeI como componente de desarrollo. En tal sentido, se
reconoce su existencia y ello posiciona a la CTeI en la
región, por medio de la creación de un órgano de
dirección y coordinación, diseño e implementación de
políticas y planes de CTeI y apalancamiento de
programas de gestión en la materia.
La implementación de los programas de fomento a la
CTeI se realizan por medio de convocatorias en todas
las regiones analizadas.
Todas las regiones destinan recursos y diseñan
programas específicos para incentivar la investigación
58
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

aplicada y la innovación a mejorar los sectores
productivos (o estratégicos) priorizados en las políticas
regionales. Estos programas están orientados,
principalmente, a las universidades y centros de
investigación con el propósito de establecer alianzas
con el sector productivo y empresarial.
Los programas de apoyo a la innovación están
orientados directamente a las empresas. Galicia,
Pernambuco y Emilia Romagna cuentan con este tipo
de programas.
2.5. Vectores presentes en el Tolima
Aunque en el Tolima se encuentran presenten los vectores
de institucionalidad, financiación, programas de gestión de
CTeI, infraestructura y recursos humanos, los mismos
solamente se encuentran planificados en la política del
Tolima (Plan de Desarrollo del Tolima) [11], pero muy pocos
con programas reales implementados. Solamente, el
establecimiento de un órgano rector (institucionalidad), el
Plan de Desarrollo del Tolima (Institucionalidad), la definición
de los actores del SRCTI (institucionalidad), la política de
CTeI (institucionalidad) los programas de apropiación
(Programas de gestión) y los sistemas de información (vector
infraestructura) se encuentran en ejecución; los restantes
solamente se encuentran enunciados en la política regional.
Lo anterior indica que el vector más desarrollado en el
departamento del Tolima es el eje de institucionalidad, lo
cual indica que el departamento cuenta con las bases
estructurales de su sistema, es decir, con la política regional
(Plan de Desarrollo del Tolima) [11] que incluye el
componente de CTeI, el órgano rector y una ordenanza
vigente que permite definir los actores y reglas de juego del
SRCTI.
Aunque en la Política Departamental se menciona que la
CTeI será el soporte para la competitividad del
departamento, no se define explícitamente los sectores
priorizados, ni los programas a implementar. Esto es una
falencia de la planificación de CTeI en el departamento.
El Departamento cuenta con un diferenciador de otros
departamentos. El contar con un Observatorio de Ciencia y
Tecnología departamental que realice el seguimiento y
medición del desempeño científico y tecnológico es una
ventaja que tiene el Tolima frente a otros departamentos, el
cual permite dinamizar el sub-vector de sistemas de
información.
El Fondo de CTeI está establecido por ordenanza pero no se
encuentra en ejecución, lo cual se constituye en una pérdida
de capacidad y esfuerzo del departamento para el fomento
de la CTeI, toda vez que, los fondos son los dinamizadores
de los vectores programas de gestión, infraestructura,
recursos humanos y redes.
3. CONCLUSIONES
La referenciación internacional aporta elementos comunes y
no comunes para estructurar los planes de CTeI. En este
sentido, los ejes recurrentes en los sistemas regionales de
innovación analizados son:

Institucionalidad

Recursos Humanos

Programas de gestión para capacidades científicas y
tecnológicas

Financiación
Los vectores mencionados anteriormente son los cuatro ejes
que la literatura y la teoría sobre SRCTI mencionan. Ello
significa que las regiones analizadas han tomado como
soporte estructural las propuestas teóricas y las han
implementado por medio de los sub-vectores, dando
resultados positivos.
Los vectores “infraestructura” y “redes científicas y
tecnológicas” pueden ser consideradas como emergentes,
dado que no todas las regiones las consideran como
vectores estructurales del Sistema o de los componentes de
los Planes.
Los anteriores no se encuentran en las teorías de SRCTI
como vectores o ejes. Se manifiestan como funciones
transversales para que un sistema funcione correctamente.
En tal sentido, la importancia que destacan estos en las
regiones analizadas como parte central del SRCTI
demuestra que la infraestructura y la información son
necesarias para implementar programas de CTeI.
Es importante aclarar que en algunos planes regionales de
CTeI (Brasil y México) consideran el vector de infraestructura
como parte de los programas para el desarrollo de
capacidades.
Uno de los aspectos fundamentales para el buen
desempeño de los SRCTI analizados es la financiación para
la promoción de los programas. Algunas regiones han
implementado fondos regionales para diferentes programas,
otras regiones fondos sectoriales o por programas.
Un aspecto fundamental para el correcto desempeño de los
SRCTI de los casos revisados se constituye en el liderazgo
claro por parte de una única entidad, que orienta las
estrategias y programas de CTeI, evitando así la duplicidad
de esfuerzos y lineamientos.
Así mismo, otra condición estratégica es la participación e
involucramiento directo de los agentes de referencia del
SRCTI, que para todos los casos involucra al Estado, la
Academia y la Empresa, teniendo a la sociedad como
beneficiaria.
El involucramiento de los actores del SRCTI se da desde el
aporte financiero, el diseño de políticas y programas, la
ejecución de los mismos y el seguimiento.
La priorización de sectores permite focalizar los programas
de CTeI y el desarrollo de capacidades para potenciar la
competitividad regional basada en conocimiento.
Un hecho de suma importancia lo presenta Emilia Romagna
[10] con la implementación del Programa de Propiedad
Intelectual, toda vez que es la única región con tal programa,
lo cual demuestra conciencia e importancia de la generación
y protección del conocimiento para su aplicación a la
solución de necesidades.
Por último, uno de los aspectos que llama la atención se
centra en los programas de apoyo al emprendimiento de
base tecnológica. Ello demuestra una clara tendencia a la
transformación de la estructura productiva para incorporar el
conocimiento en como parte de las estrategias de
productividad y competitividad.
Con base en la revisión y análisis de la referenciación
internacional, las principales recomendaciones para el
SRCTI del Tolima pueden resumirse en los siguientes
puntos:
1. El SRCTI del Tolima deberá determinar los sectores
socio-económicos sobre los cuales apuntarán los
programas y proyectos (Caso Chile – Brasil - España),
basado precisamente sobre los documentos regionales
de competitividad como lo son la Agenda Interna de
59
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Productividad y Competitividad, el Plan Regional de
Competitividad, la Agenda Prospectiva de Ciencia y
Tecnología, entre otros.
2.
3.
Determinar claramente las funciones de los actores
involucrados en el SRCTI (Caso España). Para el
departamento del Tolima es sumamente importante
establecer roles, según los roles de los actores, según
Colciencias (2008) [12] tales como financiación,
información, científico, tecnológico y gobernanza y de
esta manera apoyar al órgano rector (Consejo
Departamental de Ciencia, Tecnología e Innovación del
Tolima) para movilizar y realizar el seguimiento de los
programas de fomento.
Revisar la constitución y funcionamiento (fuentes de
financiación) de los fondos regionales para CTeI a partir
de los modelos implementados en departamentos como
el Huila, Risaralda, Bolívar y Antioquia. Igualmente, otro
de los referentes que se sugiere revisar es el Fondo de
CTeI de Colombia, el Fondo Nacional de Financiamiento
la Ciencia, la Tecnología y la Innovación “Fondo
Francisco José de Caldas”. Estos modelos permitirán
identificar las fuentes de financiación, los esquemas de
manejo de recursos y los mecanismos e instrumentos
para la financiación de programas y proyectos del Plan
de CTeI del Tolima.
4.
Asegurar que la estructura del SRCTI del Tolima cuente
con los cuatro vectores centrales (Institucionalidad –
Financiación – Recursos Humanos – Programas de
Gestión), de tal manera que los programas
implementados en la actualidad continúen su operación.
Adicionalmente, estudiar la posibilidad de implementar
otros programas conexos de cada vector identificados
en la referenciación internacional que permitan
dinamizar el SRCTI.
5.
Específicamente, para el vector de infraestructura, el
Tolima ha avanzado positivamente en la gestión de la
información, a través del Observatorio de Ciencia,
Tecnología e Innovación. Sin embargo, aún el
Departamento depende de los indicadores de CTeI
nacionales que genera el Observatorio Colombiano de
Ciencia y Tecnología (OCyT), entre ellos datos sobre
inversión,
capacidades
(grupos,
investigadores),
producción científica, entre otros, y aún no se generan
indicadores específicos para los programas de fomento
implementados en la región, por ejemplo, Programa
Ondas Tolima. En tal sentido, la recomendación se
centra en la generación de una batería de indicadores a
la medida de los programas de CTeI que se encuentren
operando en el departamento, incluyendo la medición de
los programas y proyectos establecidos en el PECTIT.
6.
Por otra parte, es importante que el Departamento
establezca programas de fortalecimiento de la
infraestructura para la CTeI ligados a los centros,
laboratorios y grupos de investigación según los
sectores priorizados por la Comisión Regional de
Competitividad del Tolima y los que se prioricen en el
PECTIT para focalizar los programas científicos y
tecnológicos de apoyo a la productividad y
competitividad. En tal sentido, es pertinente seguir el
modelo Brasil (Programa de fortalecimiento de la
infraestructura para la investigación en centros de
investigación, laboratorios, universidades y empresas) el
cual opera por medio de convocatorias y solamente
financia aquella infraestructura para la generación de
conocimiento que aplique para proyectos de
investigación e innovación para sectores productivos o
industriales y en el cual participen los centros,
universidades, laboratorios y grupos de investigación.
7.
Es muy importante que el Departamento considere la
gestión de la propiedad intelectual como mecanismo
para el fomento de la investigación e innovación,
principalmente en el sector productivo, empresarial e
industrial de la región.
8.
En cuanto al vector de Redes Científicas y
Tecnológicas, el Tolima cuenta con una gran
oportunidad para hacer parte de las redes nacionales e
internacionales en diferentes áreas de conocimiento. En
tal sentido, la incorporación de las redes de
conocimiento debe tener como lineamiento aquellos
temas o sectores priorizados en el PECTIT. Implementar
este vector permitirá que Departamento pueda contar
con infraestructura, capital humano, financiamiento de
proyectos por medio de alianzas estratégicas.
REFERENCIAS
[1] Congreso de la República. Ley 1286 de 2009 “Por la
cual se modifica la Ley 29 de 1990, se transforma a
Colciencias en Departamento Administrativo, se
fortalece el Sistema Nacional de Ciencia, Tecnología e
Innovación en Colombia y se dictan otras disposiciones”.
Artículo 2 “Objetivos Específicos”. Diario Oficial N°
47.241. Bogotá. Online [En. 2009].
[2] J. Medina, A. Aguilera, C. Franco & L. Landines, Modelo
Prospectiva y Vigilancia Tecnológica del Sena para la
Respuesta Institucional de Formación – Manual Serie
Guías Metodológicas, Cali: Instituto de Prospectiva,
Innovación y Gestión del Conocimiento, Universidad del
Valle. 2010.
[3] F. Palop & J. M. Vicente, Vigilancia tecnológica e
Inteligencia competitiva. Su potencial para la empresa
Española, Madrid: COTEC. 1999.
[4] B. T. Asheim & M. S. Gertler, “The geography of
innovation: regional innovation systems,” in Fagerberg,
J., Mowery, D., Nelson, R. (Eds.), The Oxford Handbook
of Innovation. Oxford University Press, Oxford, pp. 291–
317. 2005.
[5] J. J. Llisterri & C. Pietrobelli. Los Sistemas Regionales
de Innovación en América Latina. Washington: Banco
Interamericano de Desarrollo BID, 2011.
[6] Gobierno de Pernambuco. Decreto No 30.369 del 19 de
abril de 2007. Reglamento de la Secretaria de Ciencia,
Tecnología y Medio Ambiente y dicta otras providencias.
Recife. Online [Feb. 2012].
[7] Instituto de Desarrollo Local y Regional, IDER,
Universidad de La Frontera. Política de Ciencia,
Tecnología e Innovación. Región del Libertador
Bernardo O’Higgins. Online [Ago. 2010].
[8] Consejo Estatal de Ciencia y Tecnología de Michoacán,
“Programa Estatal de Ciencia y Tecnología de
Michoacán. Morelia”. Online [Mar. 2006].
[9] Junta de Galicia. Plan Gallego de Investigación,
Innovación y Crecimiento 2011-2015. Galicia. Online
[Jul. 2011].
[10] R. E. Romagna. “Programa Regional de Investigación
Industrial, Innovación y Transferencia Tecnológica.
2012-2015”. Italia. Online [En. 2011].
[11] Gobernación del Tolima. Plan de Desarrollo
Departamental 2012-1015. Online [Feb. 2012].
[12] Instituto Colombiano para el Desarrollo de la Ciencia y la
Tecnología Francisco José de Caldas COLCIENCIAS.
Sistema Nacional de Ciencia, Tecnología e Innovación.
Presentación Institucional. Oficina de Planeación:
Bogotá. 2008.
60
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
FRAMEWORK PARA LA COMPUTACIÓN FORENSE EN COLOMBIA
Andrés F. Álvarez Serna
Oscar D. Marín Rivera
Juan D. Victoria Morales
Universidad de San Buenaventura
[email protected]
ETICAL SECURITY
[email protected]
COMPUREDES
[email protected]
(Tipo de Artículo: Investigación. Recibido el 19/11/2012. Aprobado el 28/12/2012)
RESUMEN
Este FRAMEWORK es un conjunto estandarizado de conceptos, prácticas y criterios para enfocar la problemática a la que se
enfrentan los investigadores forenses al momento de procesar las evidencias digitales.
Este artículo se refiere a la forense digital en conceptos generales y ubica al lector en el presente de esta ciencia y muest ra
una guía de pasos a seguir para la recolección y tratamiento de las evidencias enmarcadas en las leyes colombianas y servirá
como material de apoyo a estudiantes interesados en el tema y/o quienes ya estén en el medio.
Palabras clave
Evidencias, Forense, MD5, SHA, Memoria virtual, RAM, Swap .
FRAMEWORK FOR COMPUTER FORENSICS IN COLOMBIA
ABSTRACT
This Framework is a standardized set of concepts, practices and criteria for approaching the problems that must face forensic s
researchers when processing digital evidences. This article deals with digital forensic through basic concepts and bring s the
reader to the present of forensic science, it also shows a guide of proposed steps for the collection and processing of evide nce
based in Colombian laws, aiming to serve as support material for students interested in this subject and professionals in the
field.
Keywords
Evidences, Forensic, MD5, SHA, Virtual Memory, RAM, Swap.
CADRE DE REFERENCE POUR L’INVESTIGATION NUMÉRIQUE LÉGALE
DANS COLOMBIE
Résumé
Ce cadre de référence est un ensemble standardisé de concepts, pratiques et critères pour faire une approche à la
problématique que doivent affronter les chercheurs légales dans le moment de traiter les évidences numériques.
Cet article s’occupe de l’investigation numérique légale avec des concepts généraux et place au lecteur dans l’actualité de
cette discipline, montre une guide à suivre pour la collecte et traitement des évidences d’après la loi colombienne et support e
aux étudiants intéressés sur le thème et aussi aux professionnels.
Mots-clés
Évidences, Numérique Légale, MD5, SHA, Mémoire virtuel, RAM, Échange.
61
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
La ciencia forense informática es una disciplina
moderna que busca en un incidente, fraude ó uso de
recursos
informáticos
responder
a
los
cuestionamientos ¿quién?, ¿cómo?, ¿dónde? y
¿cuándo? sucedieron los hechos, mediante la
identificación, preservación, extracción, análisis,
interpretación, documentación y presentación de los
hechos como material probatorio sólido.
2. CARACTERÍSTICAS GENERALES
Gracias al crecimiento en el uso del internet y a los
masivos problemas de seguridad que esto acarrea, el
crimen digital se ha convertido en un reto para los
investigadores. Es aquí donde comienza una nueva
forma de mirar la ciencia forense en la tecnología y
nace la computación forense. El objetivo del
investigador forense es aportar evidencia sólida a los
administradores de justicia quienes son los encargados
de
determinar
las
responsabilidades
civiles,
administrativas y penales.
Dentro de los objetivos de la computación forense
encontramos la necesidad de determinar los hechos
ocurridos en un evento donde se interactúa con
equipos de cómputo, buscando esclarecer los hechos,
determinando la magnitud del incidente y los
implicados. La finalidad de la ciencia informática
forense en la mayoría de los casos, busca identificar
material probatorio que pueda ser utilizado en un
tribunal o simplemente apoye la gestión de riesgos
mejorando la prevención de futuros incidentes [1].
3. REPOSITORIOS DE EVIDENCIAS
En entornos digitales la evidencia de cada operación
podría estar en diversos componentes que pueden
variar abruptamente según las características del
sistema, es allí donde es fundamental la pericia del
investigador y conocimiento especializado del sistema
que se está evaluando. Una de las primeras
recomendaciones es iniciar buscando en los
repositorios más comunes de evidencia como los
sistemas de archivos, archivos temporales, registro de
Windows, archivos eliminados, slack space, memoria
virtual.
Sistema de Archivos: Son los encargados de
estructurar la información guardada en una unidad de
almacenamiento que representa los datos en bits.
El conjunto de bits almacenados en una unidad es
conocido como archivos o ficheros, estos son
representados por nombres y son equivalentes a
documentos físicos, que pueden ser encontrados en
medios de cómputo internos o externos como teléfonos
móviles, cámaras digitales, memorias USB, discos
duros, unidades de almacenamiento externo, en
general en cualquier dispositivo electrónico que permita
almacenar información.
ejecutar si el equipo no tiene suficiente memoria. Estos
archivos normalmente se borran después de utilizar el
programa, siempre y cuando el programa este
configurado de esta manera. Casi siempre los archivos
temporales se guardan en diferentes carpetas según el
sistema operativo, por ejemplo en Windows se
almacenan en la ruta C:\Windows\Temp, y en
C:\Users\”usuario”\AppData\Local\Temp, la carpeta
temporal de cada usuario se almacenan con extensión
.TMP. En UNIX se guarda con el nombre original y
extensión del archivo anteponiendo un carácter
especial ~ y son almacenados en la ruta /tmp.
Registro de Windows: Sirve para almacenar los
perfiles de los usuarios, las aplicaciones instaladas en
el equipo y los tipos de documentos que cada
aplicación puede crear, las configuraciones de las
hojas de propiedades para carpetas y los iconos de
aplicaciones, los elementos de hardware que hay en el
sistema y los puertos que se están utilizando.
En el registro se encuentra información valiosa que es
utilizada como evidencia digital Ej.: programas
instalados o desinstalados, modificación sobre ellos
etc.
Archivos Eliminados: Cuando se elimina información
de los discos duros, estos desaparecen del sistema de
archivos y son marcados en las unidades de
almacenamiento como espacio libre, entonces existen
bloques que contienen la información borrada o datos
no usados. Lo anterior significa que la información
permanece en el disco hasta que los datos son
sobrescritos físicamente permitiendo la recuperación
de información que el usuario final considera eliminada
[1].
Slack space: es el espacio inutilizado en un sector del
disco, que pueden ser utilizados para investigación
porque puede contener información. Este espacio se
encuentra al final de cada sector [1].
Memoria virtual: es una memoria temporal creada
mediante la mezcla de hardware y software para
realizar la carga de programas ayudando a la memoria
RAM.
La memoria virtual se combina entre el disco duro y la
memoria RAM, cuando la memoria RAM está saturada
lleva datos a un espacio asignado al disco duro,
llamado memoria virtual. En este espacio del disco el
investigador encontrará información importante de los
programas que se ejecutaron sin importar que el
computador se encuentre apagado o encendido.
El común de las personas piensa que realizar daños a
los sistemas se pueden realizar sin ser descubiertos y
que necesitan gran conocimiento para realizarlos, por
esta razón veremos unos mitos y prejuicios a los que
se ven enfrentados.
Archivos temporales: se crean en el sistema de
archivos cuando inicia un programa para respaldar la
información antes de ser guardado o bien para poderse
62
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
4. MITOS Y PREJUICIOS
 ¿La persona que realiza un ataque informático
requiere de un conocimiento grande en
informática?
No es así. Anteriormente se requería de un
conocimiento amplio, pero hoy en día los atacantes
con poco conocimiento realizan ataques con
grandes impactos. Como ejemplo tenemos que
antes se necesitaba realizar gran investigación y
desarrollo de aplicativos (xploits) que finalmente
realizan
el
ataque
aprovechando
una
vulnerabilidad; ahora con solo descargar archivos
desde la web como: http://www.exploits-msn.com/
encontramos programas que con solo un click
pueden realizar ataques significativos incorporando
nuevas motivaciones como el hacktivismo como
muestra la figura 1.

¿Los hackers o crackers tienen un coeficiente
intelectual superior al normal?
Cualquier persona con conocimientos básicos en
informática puede convertirse en hacker o cracker,
gracias a las herramientas que se encuentran en
internet, libros, conferencias etc.

¿Los criminales cibernéticos son expertos en
computadores y con alta habilidad técnica?
Ya no es necesario ser experto cualquiera con
acceso a un computador e internet puede lograr
ataques; con tan solo ingresar a foros como:
http://www.taringa.net/posts/info/1697890/Ejemplode-Como-Funciona-un-Exploit.html, encontrará los
pasos para realizar y ejecutar xploits fácilmente.

¿Puedo pasar desapercibido si realizo un ataque?
Los investigadores forenses trabajan arduamente
para hallar las evidencias necesarias que lo lleven
a establecer cuándo?, cómo? y dónde? se realizó
un ataque.

¿Si formateo el equipo se borra toda la evidencia?
No, el forense especialista tiene las herramientas
necesarias para recuperar la información como por
ejemplo: ENCASE
(http://www.guidancesoftware.com).
Fig. 1. Motivación, conocimiento e impacto de los ataques informáticos [2]
5. CIENCIA FORENSE
5.1. Principio de Locard
Edmon Locard fue uno de los pioneros de la
criminalística a principios del siglo XX y su tratado
consistió en la siguiente apreciación: “Siempre que dos
objetos entran en contacto transfieren parte del
material que incorporan al otro objeto" [3]. Este
principio ha permitido obtener notables evidencias en
lugares insospechados de esos tiempos, como por
ejemplo huellas dactilares, huellas en arcilla y barro,
sangre, cabello o restos en partes del cuerpo humano.
Basado en lo anterior podemos deducir que un criminal
siempre dejará un rastro en una escena o una acción
63
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
cometida, por lo tanto la forense digital ha aprovechado
este principio como un apoyo a la gestión de la
recolección de las evidencias digitales dejadas en un
sistema informático después de realizar un acto ilícito.
5.2. Clase de Evidencia
Evidencias Físicas: es la evidencia tangible que
puede ser tomado de una escena del crimen que ayude
a obtener datos informáticos, como lo son equipos de
cómputo,
router,
memorias,
unidades
de
almacenamiento externo, cámaras, equipos móviles y
cualquier tipo de dispositivo electrónico que pueda
contener información.
Evidencia volátil: La evidencia volátil como su nombre
lo dice es aquella que permanece solo por un tiempo
determinado y no es para siempre.
La información transitoria se encuentra normalmente
en la memoria RAM, en la swap ó en la memoria
virtual, la información contenida en estas áreas es
temporal mientras el equipo este encendido. Otro tipo
de evidencia transitoria se puede dar cuando estamos
realizado una conexión o se tiene sesión abierta en
internet, esta evidencia debe ser tomada en el acto.
Evidencia digital: Es la información o datos obtenidos
en los equipos tecnológicos para su posterior análisis y
puedan ser presentadas como evidencias.
Esta información tiene la característica de ser copiada
exactamente realizando una copia bit a bit utilizando
herramientas de análisis forenses con las cuales se
puede determinar que la información copiada no ha
presentado modificaciones en su contenido y que
permita verificar que la copia es exacta; para esto
podemos utilizar algoritmos MD5 y SHA1 para generar
el archivo HASH.
5.3. Principio de Admisibilidad
Según la legislación colombiana para garantizar la
validez probatoria de la evidencia digital se tienen en
cuenta los criterios de: autenticidad, confiabilidad,
suficiencia y conformidad con las leyes y reglas de la
administración de justicia, que dan lugar a la
admisibilidad de la evidencia. Es importante aquí
explicar puntualmente el significado de cada una de
estas características:
Autenticidad: que la información obtenida se haya
adquirido en la escena del acontecimiento con el fin de
no alterar los medios originales. Para esto se realiza
una imagen bit a bit y se utiliza el algoritmo MD5 o
SHA1 para demostrar que no fue modificado.
Confiabilidad: En este paso se verifica que la
evidencia obtenida proviene de una fuente verificable y
creíble. En este paso se debe asegurar que los
registros y logs del sistema del equipo utilizado para la
recolección de la evidencia estén sincronizados y
puedan ser verificados e identificados; crear una línea
de tiempo donde muestre paso a paso como se realizó
la recolección de la evidencia y que los medios
utilizados para almacenar la evidencia sean estériles.
Suficiencia: Todas las evidencias se deben presentar
y estar completas para poder adelantar el caso; se
debe realizar una correlación de eventos que afiance la
presentación y desarrollo de las evidencias.
Conformidad con las leyes y reglas de la
administración de justicia: la forma como es obtenida
y recolectada la evidencia digital se enmarca
claramente en las leyes y procedimientos vigentes en
Colombia.
6. COMPUTACIÓN FORENSE
La computación forense hace parte de las disciplinas
de las ciencias del derecho y de la computación y se
enfoca en el análisis de los datos que pueden provenir
de un equipo de cómputo o de una infraestructura
informática como una red o subred que puede incluir
cualquier medio de almacenamiento fijo o removible y
que cumple con el principio de admisibilidad ante una
entidad investigativa y pueda ser admisible en una
audiencia frente a una corte.
La evidencia digital
puede ser utilizada en:






Investigaciones de fraude
Robo de identidad o de propiedad intelectual
Fuga de información
Pleitos civiles
Demandas
Delitos informáticos.
6.1. Ciencias forenses de la computación
La ciencia forense de la computación ofrece ventajas
competitivas en el mundo de la investigación digital,
que han permitido avances significativos en el mundo
tecnológico con los logros importantes que se citan a
continuación:







Analizar evidencias en formato digital, lo que antes
era un mito.
Verificar la integridad de la evidencia en mención.
Reconocimiento de la evidencia digital.
Estudio de los diferentes formatos en que se
encuentra almacenada la información.
Identificación de los propietarios de la información,
cómo se modifica, quién la modifica, quien tiene
perfil para manipular la información.
Habilidades técnicas y procedimientos forenses.
El manejo y control de los documentos
electrónicos.
6.2. Características de las evidencias digitales
La evidencia digital es el componente fundamental de
cualquier investigación forense. Los profesionales de la
computación forense tienen algunos retos con la
información a intervenir y los atributos de éstos es así
como se debe de entender las siguientes
características de la evidencia digital, que pueden ser:
eliminadas, copiadas, alteradas, volátil, duplicables.
64
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Al sistema de archivos del equipo a investigar es
factible obtenerle la línea del tiempo, para comprobar
la transformación cronológica de los datos. También es
importante anotar que existen herramientas que
permiten identificar si las evidencias han sido alteradas.
Al final de este documento se explica paso a paso el
análisis forense y hace énfasis en las características de
las evidencias digitales.
6.3. Actividades de la computación forense
Las actividades de la computación forense se realizan
siguiendo un orden secuencial como se muestra a
continuación en la figura 2.
7. LEGISLACIÓN
Existe normatividad desde tres frentes: la legislación
informática, legislación penal y la legislación civil.
La legislación civil permite responder a personas y a
sus bienes si es de carácter patrimonial o moral. Por su
lado la legislación penal vela por los daños a los bienes
jurídicos protegidos por el estado.
El análisis de la evidencia digital deberá cumplir con los
requisitos de admisibilidad, pertinencia, suficiencia y
legalidad establecidas por la ley, los documentos
electrónicos deben ser aceptados por el juez sin valorar
antes su autenticidad y seguridad. Para que los
documentos digitales sean admitidos como evidencias
se deben de tener en cuenta las siguientes leyes:


Fig. 2. Elaboración propia




Recolección: Realizar la identificación de las
posibles fuentes de datos y realizar una adecuada
recolección de las evidencias encontradas en un
equipo de cómputo, unidades externas, redes de
datos, equipos móviles, etc.
Luego de la
identificación de los potenciales datos se debe
desarrollar un plan para adquirir la información y
verificar la integridad de éstos [4].
Examinar: En esta etapa se examinan los datos
encontrados utilizando técnicas y herramientas
para ayudar al investigador a determinar cuáles
datos son realmente importantes y le aportan a la
investigación,
también
se
puede
obtener
información de que sistema operativo utilizó, que
tipo de conexión obtuvo, detalles como origen y
contenido, tipos de datos digitales como gráficos,
documentos de textos, aplicativos, o rastros (logs)
del sistema que puedan ayudar a dar fuerza a la
evidencia [4].
Análisis: En el análisis se revisa la información
examinada y determina lugares, objetos, eventos,
relación entre las evidencias halladas y se llega a
alguna conclusión para determinar quién, cómo,
cuándo y donde sucedieron los hechos [4], [5].
Entrega de informes: Esta es la parte final del
proceso donde se entrega la presentación basada
en lo encontrado en la fase de análisis. El informe
debe ser claro y conciso utilizando un lenguaje
entendible y sin tecnicismos cuidándose solo de
presentar las evidencias encontradas y no dar o
sugerir
culpables. Debe contener un orden
cronológico y vincular los datos probatorios con
fechas y horas detalladas, si es del caso hacer
referencia a la ley correspondiente que se está
violando. [4], [5].



La Ley 527 de 1999 conocida como la ley del
comercio electrónico y su decreto reglamentario
1747 de 2000, reconoció fuerza probatoria como
documentos a los mensajes de datos.
El artículo 10º de la Ley 527/99 regla: "Los
mensajes de datos serán admisibles como medios
de prueba y su fuerza probatoria es la otorgada en
las disposiciones del Capítulo VIII del Título XIII,
Sección Tercera, Libro Segundo del Código de
procedimiento Civil. Lo anterior satisface el
requisito de que la información conste por escrito,
equiparándolo así al documento escrito tradicional
La Corte Constitucional en sentencia C-662 de
junio 8 de 2000, con ponencia del Magistrado Fabio
Morón
Díaz,
al
pronunciarse
sobre
la
constitucionalidad de la Ley 527 de 1999, hizo las
siguientes consideraciones: (...) "El mensaje de
datos como tal debe recibir el mismo tratamiento
de los documentos consignados en papel, es decir,
debe dársele la misma eficacia jurídica, por cuanto
el mensaje de datos comporta los mismos criterios
de un documento [6].
Con la promulgación de la ley 1273 de 2009 se da
mayor admisibilidad a las evidencias digitales, en
esta ley se modifica el código penal buscando la
preservación integral de los sistemas de
información y las comunicaciones.
La ley 1273 de 2009 “De la Protección de la
información y de los datos”
7.1. Capítulo I
De los atentados contra la confidencialidad, la
integridad y la disponibilidad de los datos y de los
sistemas informáticos
Artículo 269A: Acceso abusivo a un sistema informático
Artículo 269B: Obstaculización ilegítima de sistema
informático o red de telecomunicación
Artículo 269C: Interceptación de datos informáticos
Artículo 269F: Violación de datos personales
 Artículo 269G: Suplantación de sitios web para
capturar datos personales.
65
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

Artículo
punitiva
269H:
Circunstancias
de
agravación
7.2. Capítulo II
De los atentados informáticos y otras infracciones.



Artículo 269I: Hurto por medios informáticos y
semejantes
Artículo 269J: Transferencia no consentida de
activos
Artículo 58. Circunstancias de mayor punibilidad.
8. PROBLEMAS PARA LA ACEPTACIÓN DE LAS
EVIDENCIAS DIGITALES
Uno de los grandes obstáculos para la aceptación de
evidencia digital en Colombia, es la carencia en los
códigos procesales penales de normas especializadas
destinadas a salvaguardar la cadena de custodia y
admisibilidad de la evidencia digital. Esta falencia
afecta a todas las partes involucradas incluyendo al
juez encargado de administrar justicia que en algunos
casos por el desconocimiento e incertidumbre técnica
prefiere apartarse del material probatorio digital.
Según la sentencia C–334/10 de la corte constitucional
la evidencia digital es “frágil y volátil”, además de
fácilmente manipulable. “Luego, al aportar elementos
digitales en un caso, es preciso que el aparato judicial
cuente con una base formal y clara sobre la
admisibilidad de la evidencia digital presentada. Es
decir, que la justicia pueda contar con características
básicas
de
esta
evidencia,
estableciendo
procedimientos básicos que le permitan verificar su
autenticidad, confiabilidad, suficiencia (completitud) y
en conformidad con las leyes establecidas” [7].
9. PASO A PASO EN LA RECOLECCIÓN DE LAS
EVIDENCIAS
9.1. Factores críticos de éxito
La computación forense debe enfocarse como una
estrategia para combatir los delitos informáticos, en
este sentido al manipular los equipos informáticos
debemos tener presente lo siguiente:


La factibilidad técnica que existe para alterar la
evidencia digital conocida como técnica anti forense es
utilizada comúnmente por la defensa para desvirtuar la
solidez del material probatorio, por lo cual es
fundamental que cada operación realizada sobre la
información y medios sea según los procedimientos
oficiales establecidos, utilizando las mejores practica
descritas por los organismos oficiales que incluyen la
estricta documentación y toma de evidencia de cada
proceso de manipulación. Existen mecanismos
tecnológicos que permiten sustentar la solidez de la
evidencia y sus alteraciones, para esto el perito
informático debe apoyarse en los sistemas de
correlación de eventos, logs de auditoría, sistemas de
detección de intrusiones, registro de autenticación,
autorización y estampas de tiempo para sustentar sus
apreciaciones.
Quizás uno de los retos más importantes que tiene la
administración de justicia en el mundo en este
momento es que no existen barreras geográficas para
los delitos informáticos donde la jurisdicción de un solo
incidente involucra múltiples legislaciones de estados y
países, obligando a la parte acusatoria a ligarse al
ámbito local en el que tiene autoridad sin que se
dispongan de mecanismos sólidos de cooperación
internacional.
Otro obstáculo para la aceptación de la evidencia digital
podría denominarse “tecnicismo” que consiste en
utilizar un lenguaje científico y tecnológico que resulta
en muchas ocasiones indispensable para describir de
forma clara y concisa un evento. Es estrictamente
necesario que el perito informático utilice un lenguaje
comprensible y didáctico que le permita al juez
entender los procedimientos y resultados de la
investigación forense digital.








Ajustar el sistema donde se realiza el análisis antes
de la recolección de la evidencia.
En el análisis de los medios se debe verificar que
los medios son vírgenes y que nunca han sido
utilizados para no distorsionar la integridad de la
información.
Adicionar datos propios al sistema de archivos del
equipo que se pretende analizar.
Evitar afectar procesos del sistema.
Evitar accidentalmente, tocar las líneas del tiempo.
Utilizar Herramientas o comandos que no alteren la
imagen y para su visualización realizar el montaje
como solo lectura.
Las evidencias se utilizan principalmente para
encontrar datos específicos concernientes a la
actividad criminal.
Utilizar máquinas forenses y herramientas
automatizadas para examinar gigabytes de datos.
Utilizar técnicas que enfaticen la recolección de la
evidencia digital de una adecuada que cumplan
con mecanismos aceptados por quien los utilicen
como prueba aceptable en investigaciones o en
tribunales.
Minimizar la pérdida de datos y evidencias.
10. GUÍA DE TRABAJO
10.1. Pasos para el análisis forense en Colombia
Antes de iniciar la recolección de la evidencia es
necesario tener muy claro los procedimientos que
garanticen la cadena de custodia del material
probatorio. La Fiscalía General de la República de
Colombia, publica en el 2004 el MANUAL DE
PROCEDIMIENTOS DEL SISTEMA DE CADENA DE
CUSTODIA, “Este manual contempla las normas, el
proceso y los procedimientos del sistema de cadena de
custodia que permitirán alcanzar niveles de efectividad
para asegurar las características originales.
Cabe resaltar que este manual está enfocado al
manejo de evidencia física por lo cual es necesario
tomar acciones para salvaguardar la evidencia digital,
66
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
por ejemplo en “aseguramiento del lugar de los hechos”
se contempla un aislamiento físico del material con el
propósito de que este no sea alterado, en un entorno
digital este aislamiento debe contemplar la
desconexión total de la red y de los mecanismos de
acceso remoto sin caer en el error de apagar el
sistema o prender si se encuentra apagado.
En el mismo manual la “Recolección, embalaje y
rotulado del elemento de prueba o evidencia” no se
tiene en cuenta los mecanismos tecnológicos
necesarios para el embalaje de evidencia digital que
podrían ocasionar la pérdida de la información, se
deberían contemplar mecanismos de control para
fuentes de energía estática y electromagnetismo,
condiciones extremas de calor y humedad que podrían
generar incluso Geotrichum (hongos) en los medios de
almacenamiento.
De igual manera en la “Presentación del elemento en
diligencia judicial” es necesario el acompañamiento del
perito informático forense para la valoración científica,
se recomienda que el perito cuente con el
reconocimiento de alguna organización reconocida [8].
La evidencia digital podría estar representada en
archivos, proceso en ejecución en el sistema, archivos
temporales, registros, tiempo de encendido del
sistema, fechas de accesos a recursos, imágenes y
videos etc.
Para recolectar la evidencia es muy importante
considerar las buenas prácticas debido a que no existe
un procedimiento único oficial abalado para estos fines,
el RFC 3227 - Guidelines for Evidence Collection and
Archiving se convierte en una buena guía de la cual
destacamos en principio el orden en que debe ser
recolectada la evidencia iniciando con la información
más volátil almacenada en medios de este tipo como
memoria RAM, memoria cache, tablas de procesos,
tablas de enrutamiento, entradas ARP y sistemas de
archivos temporales. Para terminar finalmente
recolectando la información menos volátil como los
sistemas de archivos y topologías de red [9].
El paso siguiente después de la recolección de la
información es establecer un mecanismo mediante el
cual podamos asegurar la integridad de los datos, para
este propósito son utilizados los algoritmos de resumen
como el MD5 y SHA1 que arrojan como resultado un
valor alfanumérico
de longitud fija llamado HASH,
estos algoritmos pueden recibir como entrada una
cadena de caracteres ó archivos de cualquier tamaño
y permiten asegurar que los documentos digitales no
han sido alterados durante la investigación. Los
algoritmos más comúnmente utilizados son:
Tabla 1. Algoritmos de HASH
MD2
Tamaño del resultado
en bits
128
MD4
128
Algoritmo
MD5
Tamaño del resultado
en bits
128
PANAMA
256
Algoritmo
RIPEMD
128
RIPEMD-128
128
RIPEMD-160
160
RIPEMD-256
256
RIPEMD-320
320
SHA-0
160
SHA-1
160
SHA-224
224
SHA-256
256
SHA-384
384
SHA-512
512
Tiger2-192
192
WHIRLPOOL
512
En la utilización de los algoritmos de hash no podemos
dejar pasar por desapercibido la baja probabilidad que
existe que al menos dos entradas arrojen un valor de
resultado idéntico esto es conocido como colisión y
afecta a todos los algoritmos debido a que se pueden
utilizar como entrada del algoritmo un número infinito
de cadenas de caracteres pero como resultado
siempre obtendremos un valor de longitud limitado en
el caso de MD5 de 128 bits lo que quiere decir
128
38
2 =3’402823669 * 10 de posibles combinaciones.
Es importante resaltar que los medios de
almacenamiento, no manejan la información a niveles
tan pequeños como bits o bytes, sino que la manejan
en grupos llamados clúster, sector o bloque. La
cantidad de bytes agrupados en estos depende del
“sistema de archivos” es decir el formato que tenga el
medio de almacenamiento. Por ejemplo, el que usa
Windows se llama NTFS (New Technology File
System) en este el tamaño de sus clúster es de 512
bytes. La importancia de estos clúster es que el medio
de almacenamiento lleva un registro de qué clúster
pertenece a qué archivo o si éste no ha sido asignado a
un archivo. Esto no se hace por dejar evidencia, sino
porque los medios de almacenamiento, necesitan para
un adecuado funcionamiento dichos registros y se
llevan en la MFT (tabla de asignación de archivos por
sus siglas en ingles File Asignation Table).
Un hecho significativo es que cuando se borra un
archivo éste realmente no es borrado del medio de
almacenamiento, lo que ocurre es que se registra en la
MFT que estos clúster no están asignados y por esta
razón no se puede acceder a él directamente. Pero los
bits que conformaban este archivo siguen intactos en el
medio de almacenamiento y por tanto el archivo que
fue borrado puede ser recuperado
Para asegurar la aceptabilidad de la evidencia
recomendamos utilizar mínimo dos algoritmos de
67
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
HASH simultáneamente o utilizar los algoritmos que
arrojan como resultado cadenas de mayor longitud
como SHA-512, WHIRLPOOL.
Para garantizar la aceptabilidad en el análisis forense
es necesario realizar una copia exactamente idéntica a
los datos originales, para esto se utilizan las copias en
la unidad de almacenamiento más pequeño que existe
como lo es la copia bit a bit.
Para estas copias bit a bit existen innumerables
herramientas y equipos físicos que tiene un alto nivel
de fiabilidad pero recomendamos utilizar el programa
“dd” que está incluido en la mayoría de compilaciones
de Linux y permite en compañía de NETCAT realizar
copias incluso por red.
Una vez adquirida la imagen es necesario obtener la
línea de tiempo que contiene cronológicamente la
creación, modificación, acceso y eliminación de los
archivos contenidos.
Para una correcta interpretación cronológica es
necesario comparar el reloj interno del sistema del cual
se extraen los datos y un servidor de tiempos NTP
para definir la hora real de los eventos. También es una
buena práctica utilizar un servidor NTP para
documentar con hora exacta cada una de las
operaciones realizadas sobre los datos.
Para el procesamiento de la evidencia es necesario
utilizar herramientas y comandos que no alteren la
información analizada de ser posible en modo solo
lectura. Sin las herramientas adecuadas, con solo abrir
un archivo pueden ser alteradas las fechas de última
modificación.
Para el análisis de la evidencia resulta muy útil la
búsqueda de palabras claves dentro de todos los
archivos para lo cual se recomienda crear un
diccionario de palabras concernientes al caso
investigado.
Otro de los pasos que nos encontramos al momento de
una investigación forense es enfrentar investigaciones
que en muchos casos pueden traspasar las fronteras
nacionales y que por tal motivo están regidas por
legislación muy diferente a la colombiana. Por esta
razón
es
necesario
utilizar
procedimientos
estandarizados que puedan responder a cualquier
legislación por lo cual cabe recomendar la utilización de
los estándares conocidos para el manejo de incidentes
de seguridad informático que no son precisamente para
análisis forense como la ISO/IEC 27002:2005.
Una de las partes más útiles para el análisis forense
son los datos que deben ser levantados al momento de
encontrar evidencia digital resaltamos los siguientes de
la norma:
 ¿Qué es la evidencia encontrada?
 Son las pruebas como archivos que conducen al
esclarecimiento del delito.
 ¿Quién encontró la evidencia?















La evidencia debe ser encontrada por especialistas
informáticos forenses.
¿Cómo encontró la evidencia?
La utilización de técnicas que permiten el análisis
mediante las líneas de tiempo.
¿Cuándo encontró la evidencia?
En el momento del análisis.
¿Dónde encontró la evidencia?
En Memoria volátil, sistemas de archivos, redes de
cómputo.
¿Quién recuperó la evidencia?
Forense informático.
¿Cómo recuperó la evidencia?
Utilizando herramientas que garanticen la
admisibilidad de los archivos digitales.
¿Dónde recuperó la evidencia?
En equipo y medios estériles donde previamente se
realizó copia bit a bit del medio incautado.
¿Cómo preservar la evidencia?
En medios estériles, y el embalaje en recipiente
que permitan conservar la integridad del
dispositivo, además de realizar un MD5 o SHA1.
También se puede utilizar el SP800-61 del NIST
“National Institute of Standards and Technology” en su
guía de manejo de los incidentes de seguridad en
computadores de donde pueden ser extractados
algunos principios claves para sustentar la
admisibilidad de la evidencia encontrada [4], [10].
Más importante aunque la misma evidencia es la
presentación que se realiza de los resultados para ser
abalados como material probatorio. Es recomendado
utilizar un lenguaje sin tecnicismos, claro y amable sin
emitir juicios con una impecable redacción, se debe
tener muy claro que sus interlocutores son en su
mayoría abogados y personas del común que no tiene
conocimientos técnicos para asimilar la contundencia
de la evidencia.
Finalmente es muy importante presentar el reporte en
orden cronológico narrando de forma ordena y fluida
cada uno de los hallazgos encontradas durante el
análisis, evitando emitir juicios.
10.2. Resumen paso a paso
1. La incautación debe realizarse por el informático
forense para asegurar la admisibilidad de la
evidencia.
2. Recolectar, incautar, aislar y asegurar la evidencia.
3. Tomar una imagen bit a bit de los discos,
memorias USB, encontradas, si es el caso.
4. Conservar la integridad de la evidencia. Sacar un
Md5 o sha1 para la imagen, archivo o fichero
encontrado.
5. Procesamiento de la evidencia al ser embalado,
rotulado, firma y fecha del funcionario que hace la
incautación.
6. Todos los procedimientos realizados deben ser
documentados y catalogados con fechas y
descripción del procedimiento
68
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
7. No modificar la evidencia de ninguna forma, evitar
romper la cadena de custodia de la evidencia o del
medio.
8. Análisis de la evidencia
9. Cuando tenga una imagen de cualquier medio de
almacenamiento (discos, memorias, dispositivos
móviles, cámaras etc.) sacar línea de tiempo de las
imágenes. En estas encontramos creación,
modificación, acceso y eliminación de los archivos
contenidos.
10. Montar la imagen para ver su contenido, tener en
cuenta que cuando monte la imagen no se realicen
modificaciones de su contenido en ninguna de sus
formas, para realizar su análisis.
11. Realizar reporte con fechas, orden cronológico de
lo encontrado y entregar conclusión de lo sucedido
en el mismo orden.
12. Generar un registro de seguridad de todo el
procedimiento antes, durante y después para ser
presentado ante un juez.
REFERENCIAS
11. CONCLUSIONES
La combinación de diferentes técnicas empleadas en el
análisis forense ofrece al investigador las evidencias
necesarias para demostrar un hecho ocurrido en un
sistema tecnológico.
[6] Congreso de la República. Ley 527 de 1999. Online
[Mayo. 2012].
Todo evento realizado en sistema deja un registro del
suceso y puede ser obtenido por el especialista así
haya sido borrado por el atacante.
[8] Fiscalía General de la Nación. Manual de
procedimientos para cadena de custodia, Fiscalía
General de la Nación, p. 23, ISBN 958-97542-8-7.
Las bitácoras y la correlación de eventos son la fuente
más importante de los investigadores forenses. Se
denota que estamos obligados a fortalecer más estas
herramientas para una labor más integral de quienes
estamos en este mundo de la forense digital.
[9] D. Brezinski & T. Killalea. Guidelines for Evidence
Collection and Archiving. IETF. Online [Feb. 2002].
[1] J. Cano. Computación forense descubriendo los
rastros Informáticos. Online [En. 2009].
[2] Software Engineering Institute. Carnegie Mellon
University. Trusted Computing in Embedded
Systems - Challenges. Online [Nov. 2010].
[3] G. Zucarddi & J. D. Gutiérrez. “Informática
Forense”. Online [Nov. 2006].
[4] K. Kent, S. Chevalier, T. Grance & H. Dang.
National Institute of Standards And Technology.
“Guide to Integrating Forensic Techniques into
Incident Response. NIST SP 800-86”, Online [Aug.
2006].
[5] J. E. Bonilla. Computación Forense. Online [Nov.
2009].
[7] Corte Constitucional de Colombia. Sentencia C334/10 corte constitucional. Online [Junio. 2010].
[10] Norma técnica Colombiana NTC-ISO/IEC 27001.
Online [Jul. 2006].
Cada vez más nos acercamos a los hechos reales de
los delitos informáticos y uno de los factores ha sido la
utilización de herramientas forenses.
69
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
APLICACIÓN DE LOS SISTEMAS DE INFORMACIÓN GEOGRAFICA PARA LA
GESTIÓN DE LA MALLA VIAL DE LA CIUDAD DE MEDELLÍN
Jaime A. Zapata Duque
Gabriel J. Cardona Londoño
Alcaldía de Medellín, Colombia
[email protected]
Alcaldía de Medellín, Colombia
[email protected]
(Tipo de Artículo: Investigación. Recibido el 04/12/2012. Aprobado el 30/12/2012)
RESUMEN
El estado de la malla vial depende fundamentalmente de factores tales como el tráfico, características estructurales y funcionales
del pavimento y condiciones climatológicas locales, y su mantenimiento tiene importantes implicaciones espaciales. Este
documento describe el proceso de implementación del sistema de gestión de pavimentos de la ciudad de Medellín, desarrollado
en una plataforma SIG. El sistema está soportado en una geodatabase corporativa de inventario y diagnóstico, el cual alimenta un
software de modelación del deterioro del pavimento y arroja recomendaciones de intervención en cada segmento vial. Este
sistema sirve como apoyo a las autoridades encargadas a la toma de decisiones, con el fin de realizar la planeación del
mantenimiento de la malla vial, optimizar los recursos disponibles y ofrecer un mejor servicio a la comunidad.
Palabras clave
Sistemas de información geográfica (SIG), Transporte, vehículos, transporte por carretera, mantenimiento, asfalto, áreas urbanas,
gestión.
APPLYING GEOGRAPHIC INFORMATION SYSTEMS FOR THE
MANAGEMENT OF THE ROAD NETWORK OF MEDELLÍN CITY
ABSTRACT
The road network condition depends mainly on factors such as traffic, structural and functional characteristics of asphalt and local
weather conditions, and its maintenance, have important spatial implications. This document describes the implementation process
of an asphalt management system for Medellin city, developed in a GIS platform. The system is supported in an inventory and
diagnostic geodatabase, which feeds the modeling software for asphalt deterioration, and provides intervention recommendations
for each road segment. This implementation helps supporting the decision making process for authorities, in order to perform the
planning of road network maintenance, optimizing available resources and providing better service to community.
Keywords
Geographic Information Systems (GIS), Transportation, Vehicles, Road transportation, Maintenance, Asphalt, Urban areas,
Management
APPLICATION DES SYSTÈMES D’INFORMATION GEOGRAPHIQUE POUR
LA GESTION DU RESEAU ROUTIER DE LA VILLE DE MEDELLÍN
Résumé
La condition du réseau routier est déterminée par des facteurs comme la circulation, de caractéristiques structurales et
fonctionnelles de l’asphalte et des conditions climatologiques locales, et sa maintenance a dans implications spatiaux
significatifs. Cet article décris le processus d’implémentation du système de gestion d’asphaltes de la ville de Medellín,
développé sur une plateforme SIG. Le système est supporté sur une geo-base de données corporatif d’inventaire et diagnostic,
qui supporte un logiciel de modélisation de la détérioration de l’asphalte et nous donne des recommandations pour
l’intervention sur chaque segment routier. Ce système supporte aux autorités responsables pour la prise des décisions, avec l e
but de réaliser la maintenance du réseau routier, d’optimiser les ressources disponibles et d’offrir un meilleur service aux
citoyens.
Mots-clés
Système d’information Géographique (SIG), transport, véhicule, Maintenance, transport routier, asphalte, gestion.
70
70
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
1. INTRODUCCIÓN
La malla vial es el componente principal del sistema de
transporte terrestre sobre la cual se fundamenta la
movilidad de bienes y personas dentro de una entidad
territorial. El mantenimiento de la infraestructura vial es
una prioridad para las autoridades encargadas de su
administración, ya que representa un patrimonio muy
valioso para la economía de la región en la que se
encuentra. La adecuada administración de la malla vial
conlleva a realizar la planeación y el mantenimiento de
su infraestructura en óptimas condiciones, mediante la
identificación de las necesidades, la priorización de las
intervenciones y la optimización de los recursos.
Una malla vial en buen estado contribuye a la
articulación entre los puntos de origen y destino de los
diferentes viajes que se generan, lo cual se traduce en
una mayor competitividad y desarrollo del transporte e
infraestructura del territorio del cual hace parte. Esto se
ve reflejado en la realización de viajes más rápidos,
cómodos, seguros y económicos.
Los desplazamientos que a diario se realizan sobre la
infraestructura vial, tanto en modos de transporte
individuales como masivos y de carga, ocasionan un
deterioro progresivo sobre el pavimento. Así mismo, las
características geomecánicas de la estructura del
pavimento, las condiciones ambientales, geológicas, los
drenajes y las condiciones del suelo, contribuyen
significativamente al detrimento de la malla vial,
reflejándose en la aparición de fallas superficiales e
irregularidad en la carpeta asfáltica.
El deterioro de la malla vial tiene repercusiones
económicas, ambientales, sociales y políticas, dentro de
las cuales se pueden mencionar, desde el punto de vista
de los usuarios, el aumento en los costos de operación
vehicular, en tiempos de desplazamiento, inconformidad,
accidentalidad, congestión y consumo de combustible;
desde el punto de vista de la infraestructura, el
incremento en las intervenciones sobre la capa de
rodadura y la estructura del pavimento; y desde el punto
de vista ambiental con el aumento de los niveles de
contaminación del aire y por ruido, en resumen una
pérdida de confianza y credibilidad en los gobiernos
responsables.
Todos estos factores pueden ser caracterizados,
analizados e integrados espacialmente a través de los
Sistemas de Información Geográfica (SIG). Esta
herramienta de alto poder de análisis, interpretación y
visualización, que emplea tecnología de avanzada
mediante hardware y software especializados, permite
integrar datos alfanuméricos con la información
geográfica. Los SIG realizan dicha integración mediante
el despliegue de diferentes capas temáticas de estudio,
tales como la red vial, topografía, usos del suelo, red
hídrica, catastro, equipamientos colectivos, espacios
públicos, división administrativa, sistemas de transporte,
obras de infraestructura, entre otras. De esta manera, es
posible realizar procesos complejos de análisis
multicriterio con el fin de tomar decisiones y optimizar los
recursos en la solución de un problema en particular.
Dentro del ámbito de aplicación de los SIG, la red vial de
un territorio se representa mediante líneas segmentadas,
conectadas entre sí, con integralidad, consistencia y
continuidad, que permiten clasificar, visualizar, interpretar
y analizar los atributos inherentes a la calzada vehicular.
De esta manera se representan diferentes capas
temáticas, tales como tipos de superficie de rodadura,
estados de condición, jerarquía vial, tipo de tráfico,
pendientes, tipos de intervención; en general,
un
conjunto de información que permite al usuario de los
SIG disponer de un mejor entorno visual, que le facilita el
análisis de la información.
2. ESTADO DEL ARTE
Existen algunas investigaciones previas en el marco de
la implementación de los SIG en los temas relacionados
con vías. A continuación mostraremos algunos de estos
importantes antecedentes.
P. Álvarez y otros [1] desarrollaron un modelo de
planificación del mantenimiento de la red de carreteras
en Badajoz, España, el cual permite determinar las
condiciones de las vías, evaluar sus indicadores y
llevarlos a un ambiente SIG, con el fin de visualizar su
distribución según el estado, con esta información se
pueden realizar diagnósticos y optimizar los recursos
asignados. Los factores que afectan el mantenimiento de
las vías, tales como el tráfico, estado superficial y calidad
de la señalización, permiten medir el grado de
satisfacción de los usuarios y definir los sitios de
intervención. Mediante la visualización geográfica, se
observan las condiciones más adecuadas de las vías
para la seguridad de los usuarios, la preservación de las
estructuras viales, la pavimentación de las vías, la
señalización horizontal y vertical y los taludes. Los SIG
ofrecen numerosas aplicaciones y análisis de la
información, apoyando la toma de decisiones sobre la
inversión de los recursos estatales de manera objetiva y
técnica.
Por otro lado J. Coutinho [2], considera varios criterios de
evaluación y alternativas en la planificación y
modelamiento de un territorio, dada la importancia que
tienen los aspectos sociales, económicos, ambientales y
técnicos, en la toma de decisiones, todo esto para
ofrecer a los usuarios un entorno flexible y fácil de usar
en la planificación de la infraestructura urbana. En la
evaluación de las inversiones se consideran criterios
múltiples y aplicaciones espaciales en la distribución de
costos y beneficios, utilizando métodos de análisis como
el DSS (Decisión Support Systems), facilitando la
relación entre la toma de decisiones y los modelos
computarizados.
W. Chen y otros [3] plantean que el propósito de un
sistema de gestión de pavimentos es determinar la
intervención más efectiva de mantenimiento y
reconstrucción en un territorio, integrando tecnología SIG
y GPS para la recolección y almacenamiento de datos,
análisis geoespacial y optimización de la planeación del
mantenimiento, con lo cual se aumenta la capacidad y
utilidad del modelo de gestión. En el caso del aeropuerto
71
71
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
de Shanghai se crearon bases de datos espaciales
mediante la segmentación del pavimento y la
identificación década tramo con un único código, con lo
cual se generó un mapa y se recolectaron los datos con
GPS permitiendo de esta manera disminuir el trabajo y
mejorar la productividad. Adicionalmente se utilizó una
tecnología geoespacial mediante cartografía de mapas
temáticos con información de la condición del pavimento
y se identificaron las fallas en las losas para determinar
las medidas correctivas. Así los SIG permitieron realizar
el análisis y ejecución de una gestión óptima del
mantenimiento del pavimento, con lo cual se logró
mejorar la toma de decisiones y resolver problemas a
futuro.
En el trazado de carreteras en Beirut, Líbano, se utilizó
un enfoque de evaluación integrado empleando criterios
generados bajo una plataforma SIG, con la cual se
evaluaron las alternativas para el alineamiento de las
vías. Además se tuvieron en cuenta consideraciones
geotécnicas y medio ambientales para la realización de
modelos del diseño de las autopistas, la estabilidad de
las vertientes y el ruido del tráfico. Con este trabajo se
logró mostrar el potencial del enfoque desarrollado, que
permite incorporar nuevos criterios en el diseño del
trazado de carreteras y automatizar el procedimiento de
evaluación.
En el desarrollo de un prototipo de análisis de impacto
del tráfico se pueden integrar los SIG para generar
modelos de simulación y visualización en 3D. De esta
manera
red nacional. En la ciudad de Bogotá se realizó la
actualización del inventario y diagnóstico de la malla vial
urbana (232.7 Km-calzada), nuevas vías urbanas (70.3
Km-calzada) y nuevas vías rurales [5]. Y, en el ámbito
regional, se puede mencionar que a partir del año 2005
se llevó a cabo el inventario y diagnóstico de la malla vial
urbana y rural de la ciudad de Medellín en una longitud
de 2013 Km-calzada.
Es importante tomar en cuenta el caso en la ciudad de
Los Ángeles, USA, en el año 2008 el Departamento de
Obras Públicas donde se realizó la evaluación de la
infraestructura vial, con el fin de mejorar dicha
infraestructura. Para este efecto se utiliza un sistema de
alta tecnología que permite determinar el mantenimiento
o la rehabilitación requerida, predecir las condiciones
futuras del pavimento y establecer el tiempo óptimo para
ejecutar dichas tareas. Para cada condición se utilizó el
“Índice de Condición del Pavimento” (PCI), el cual evalúa
las condiciones físicas de las vías según las
características estructurales y operacionales basado en
la metodología Micro PAVER que determina el tipo, la
severidad y la cantidad de fallas superficiales [6].
La ciudad de Medellín, por su parte, presenta unas
características particulares que influyen específicamente
en el comportamiento de los pavimentos; factores, tales
como la geomorfología, geografía, medio ambiente,
drenajes, demografía, usos del suelo y división política
administrativa, entre otros. Por esta razón, es
indispensable la implementación de un sistema de
gestión vial acorde a las características propias de la
ciudad y desarrollado sobre la plataforma SIG.
Wang [4] empleó SIG con distintos modelos para
proyectar el tráfico, la velocidad vehicular y las
concentraciones de monóxido de carbono. Apoyados en
modelos en 3D de los segmentos viales y edificios a lo
largo de la carretera los autores realizaron una
presentación en 3D con experiencias de conducción, lo
que brinda amplias posibilidades de toma de decisiones
a los planeadores en los proyectos de investigación y
práctica [4].
Durante las últimas décadas, se ha extendido la
aplicación del SIG en diversos temas de la Ingeniería de
Infraestructura Vial, con aplicación en sistemas de
administración de la red vial. A nivel nacional cabe
mencionar lo realizado en Medellín, Bogotá y Cali, a nivel
latinoamericano los países que cuentan con esta
aplicación son Argentina, Brasil, Panamá y Perú, y a
nivel internacional Israel, EEUU y España, entre otros.
La empresa de consultoría TNM Ltd., ha desarrollado a
nivel mundial varias aplicaciones de los sistemas de
gestión vial. En Israel se evaluaron las características de
los pavimentos para alimentar la base de datos del
sistema de la red interurbana [5]. En la ciudad de
Panamá, se efectuó la actualización del inventario de la
red vial interurbana (8.500 Km de vías pavimentadas y
no pavimentadas y 1384 puentes) y se hicieron estudios
de tráfico. En Perú se realizó el inventario de la red vial
nacional pavimentada (aprox. 8.500 Km) y los puentes
del país y se implementó el sistema de valoración de la
La implementación del sistema de gestión vial en la
ciudad de Medellín tiene como fin primordial realizarla
planeación del mantenimiento de la malla vial y su
infraestructura asociada. El sistema está soportado en
una geodatabase corporativa de inventario y diagnóstico,
con la cual se alimenta un software que realiza la
modelación del deterioro del pavimento a lo largo del
tiempo. Este software está basado en el modelo HDM-4
(Metodología del Banco Mundial) y fue calibrado para las
condiciones particulares de la ciudad, con el fin de
obtener resultados reales, que respondan a las
características de la ciudad y de la red vial.
Luego de este proceso, el sistema de gestión vial arroja
diferentes recomendaciones de intervención para cada
segmento vial seleccionado, de acuerdo con una matriz
de decisiones que fue diseñada según las
especificaciones propias de la Secretaría de
Infraestructura Física de la Alcaldía de Medellín. Esta
matriz de decisiones involucra tres parámetros
principales con los cuales procesa los datos: el tráfico, la
capacidad estructural y las condiciones superficiales y de
servicio del pavimento. De esta manera, el sistema de
gestión vial permite identificar las necesidades y priorizar
las intervenciones de acuerdo con varios criterios de
selección tales como: el tipo de intervención, la jerarquía
vial, la relación costo-beneficio o el menor costo.
Finalmente, el resultado de esta implementación logra
apoyar la toma de decisiones por parte de las
72
72
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
autoridades encargadas, y así realizar la planeación del
mantenimiento de la malla vial, optimizar los recursos
disponibles y ofrecer un mejor servicio a la comunidad.
3. MARCO TEÓRICO
El primer elemento a considerar en la implementación
del Sistema de Gestión Vial, es la recopilación de los
datos de campo, es decir la elaboración del Inventario y
Diagnóstico del estado actual de la malla vial de la
ciudad de Medellín, a través de la obtención de los
parámetros geométricos y técnicos. El segundo
elemento es la elaboración de una Matriz de
Decisiones, cuyo objetivo básico consiste en establecer
la intervención requerida en un segmento vial para
mantener un nivel de servicio adecuado y proteger el
patrimonio vial en un cierto período de tiempo.
3.1. INVENTARIO Y DIAGNÓSTICO DE LA MALLA
VIAL
Los parámetros geométricos y técnicos incluyen el
inventario de fallas superficiales en el pavimento MDR, medida del coeficiente de resistencia al
deslizamiento – CRD, mediciones de deflectometría,
medida del índice de regularidad superficial – IRI,
determinación de espesores de la estructura de
pavimento y conteos de tránsito para la asignación del
tránsito promedio diario –TPD, los cuales serán
posteriormente insumos para el modelo de priorización
de los segmentos viales. Un segmento vial se define
como la porción de vía entre dos intersecciones, que
tiene un nodo inicial y final, una dirección y sentido.
El segmento vial es el elemento geográfico básico de
visualización, de tipo lineal conectado entre dos nodos,
el cual se identifica mediante un identificador de
segmento (ID_OP) compuesto por un código de siete
(7) dígitos. El primer número del código representa la
jerarquía vial de acuerdo al Plan de Ordenamiento
Territorial – POT de la ciudad, los otros seis (6) dígitos
corresponden a un consecutivo de asignación para los
segmentos clasificados dentro de cada jerarquía vial.
De esta manera, el (1) representa las autopistas
urbanas, el (2) las arterias principales, el (3) las arterias
menores, el (4) las vías colectoras, el (5) las vías de
servicio, el (6) las vías rurales cabecera y el (7) las
vías rurales veredales.
La determinación de los parámetros técnicos
mencionados anteriormente, se realiza con equipos de
alto rendimiento, logrando una mayor captura de datos,
mayor eficiencia, disminución de costos y menor
impacto ambiental. La definición y forma de medir cada
parámetro se describe a continuación.
3.1.1. Parámetros Técnicos del Pavimento
Los parámetros técnicos del pavimento describen las
diferentes características de cada una de las capas que
lo componen. Estas capas pueden ser variables y van
desde la superficie de rodadura hasta la subrasante o
suelo de apoyo de la estructura, pasando por las capas
intermedias o material granular. Los principales
parámetros técnicos que se analizaron son el índice de
rugosidad internacional, las deflexiones, los espesores
de las capas, el coeficiente de resistencia al
deslizamiento, la capacidad de soporte de la
subrasante y el índice de condición global del
pavimento, las cuales se describen a continuación.
3.1.2. Índice de Regularidad Internacional– IRI
La regularidad superficial, expresada normalmente por
un índice, se define como las deformaciones verticales
acumuladas a lo largo de un kilómetro con respecto a
un plano horizontal en un pavimento, denominadas
irregularidades. Estas deformaciones se deben al
procedimiento constructivo y al efecto producido sobre
la vía por el tránsito vehicular o por la combinación de
ambas. El IRI se mide con el equipo denominado
perfilógrafo láser RSP de medición directa, sin contacto
con la vía, de clase II según la FHWA (Federal Highway
Administration), y se obtiene midiendo el perfil
longitudinal [7].
La superficie de rodadura del pavimento proporciona al
usuario características de confort, seguridad y
durabilidad, lo cual se logra a partir del cumplimiento de
ciertos parámetros. La superficie de rodadura de un
pavimento se puede clasificar conforme a las
irregularidades superficiales presentes. El IRI es una
característica del pavimento flexible importante, ya que
afecta la calidad del desplazamiento, los costos de
operación y el mantenimiento de los vehículos.
Con el fin de estandarizar el valor de la regularidad
superficial, el Banco Mundial propuso el Índice
Internacional de Regularidad (IRI), que se basa en un
modelo matemático denominado cuarto de carro
normalizado (Golden Quarter Car) circulando a 80
km/h. Dicho índice se obtiene a partir de la
acumulación del desplazamiento relativo entre las
masas de la carrocería y la suspensión del modelo,
cuando el vehículo circula por el perfil de la vía en
estudio. Entre más alto es el valor del IRI, más mala se
considera la condición superficial.
3.1.3. Deflectometría
La deflexión es una medida de deformación del
pavimento flexible, representa una respuesta total del
sistema o estructura del pavimento ante la aplicación
de una carga externa. La condición estructural de un
pavimento se evalúa midiendo la deflexión vertical que
presente éste bajo una carga normalizada. La medición
se realiza en forma no destructiva y se utiliza para
relacionarla con la capacidad estructural del pavimento.
Es importante destacar que no sólo se desplaza el
punto bajo la carga, sino también en un sector
alrededor de ella, causando un conjunto de deflexiones,
el cual se denomina cuenco o bulbo de deflexiones
como se observa en la Figura 1.
El equipo empleado para la medición de deflexiones es
el Deflectómetro de Impacto (Falling Weight
Deflectometer – FWD). El principio general de
funcionamiento de este equipo de alto rendimiento se
basa en la producción de una onda de carga sobre el
pavimento, lo cual se consigue mediante el impacto
generado por la caída libre de una masa, que es
73
73
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
transmitido mediante un sistema de amortiguamiento
elástico montado sobre una placa de carga. Los
sensores de deflexión utilizados tienen una serie de
siete geófonos para registrar las velocidades y los
desplazamientos (D0, D20, D60, D90, D120, D150 y
D180), donde D0 es la deflexión medida bajo el punto
de aplicación de la carga y D180 es la deflexión medida
en el punto más alejado de la carga [8].
viaje de la onda desde su inicio hasta la recepción de la
onda reflejada, es posible la determinación de los
espesores de cada capa de pavimento [9].
3.1.5. Coeficiente de Resistencia al Deslizamiento –
CRD
La resistencia al deslizamiento es la fuerza
desarrollada entre la superficie del pavimento y los
neumáticos de los vehículos. El coeficiente de fricción
del pavimento, depende entre otras cosas, del tipo de
pavimento, el estado superficial y las condiciones de
humedad. El CRD se puede determinar en cada una de
las calzadas vehiculares empleando el péndulo inglés,
ensayo normado en el INV-E-792, o el Grip Tester, el
cual es un equipo de alto rendimiento [10].
3.1.6. California Bearing Ratio – CBR
El CBR está definido como la fuerza requerida para que
un pistón normalizado penetre a una profundidad
determinada. Está expresado en el porcentaje de
fuerza necesaria para que el pistón penetre a esa
misma profundidad y con igual velocidad, en una
probeta normalizada constituida por una muestra
patrón de material remoldeado. El CBR se determina
en la capa de la sub-rasantea través de apiques, del
suelo que está por debajo de la estructura del
pavimento. La expresión que define al CBR, es la
siguiente [11]:
(1)
Fig. 1. Bulbo de deflexiones [8]
3.1.4. Espesores del Pavimento
La determinación de espesores de la estructura del
pavimento,
permite,
conjuntamente
con
la
deflectometría, analizar la capacidad estructural del
pavimento. Es así como el número estructural – SN en
pavimentos flexibles, depende directamente de la
medida de la deflexión y de los espesores de la
estructura del pavimento y permite establecer la
condición estructural del mismo.
La información de espesores del pavimento para los
segmentos viales se recopiló mediante la metodología
Ground Penetrating Radar (GPR), la cual emplea un
dispositivo que emite un pulso corto de energía
electromagnética, capaz de determinar la presencia o
ausencia de un objeto mediante el examen de la
energía reflejada de dicho pulso. El equipo utilizado fue
el Georadar, el cual sondea el subsuelo por medio de
impulsos electromagnéticos de alta frecuencia. En una
estructura de pavimento la onda electromagnética viaja
hasta que se encuentra con una discontinuidad
dieléctrica debida a un cambio de material, como una
nueva capa del pavimento, humedad, presencia de
cámaras de aire o cualquier otro fenómeno por el que
cambie la constante dieléctrica del material. Una parte
de la onda es reflejada por esta discontinuidad y el
resto continúa su camino hacia el interior del
pavimento. Controlando con exactitud el tiempo de
Donde el PDC (Penetrómetro dinámico de cono)
portátil, constituido por una masa deslizante que se
deja caer por gravedad sobre un yunque de impacto, y
que por medio de una varilla transmite la energía a una
puntaza cónica que se hinca en el terreno. Este se
emplea para hacer una evaluación de la capacidad
portante de las capas de afirmado mediante una
correlación con el índice CBR. La correlación empleada
para el cálculo del CBR a partir del PDC, es la
desarrollada por la Universidad del Cauca [11].
3.1.7. Índice de Condición Global o Serviciabilidad
del Pavimento – OPI
A partir de la información del índice de fallas
superficiales (Modified Distress Rating – MDR) y del
IRI, es posible calcular el valor del OPI (Overall
Pavement Index) para cada una de las calzadas que
conforman el segmento vial [12], [13].
3.1.7.1. Índice de Fallas Superficiales – MDR
El cálculo del MDR se basa en valores deducibles
obtenidos de las respectivas curvas de fallas o pesos
en función del grado de severidad y de la extensión del
daño de acuerdo a la metodología PAVER [14]. Esta
metodología fue desarrollada por el Cuerpo de
Ingenieros del Ejército de los Estados Unidos. El valor
deducible varía de 0 a 100 e indica el impacto que cada
daño tiene sobre la condición del pavimento. Así, un
valor de 0 en la curva, indica que el daño no tiene
efecto en el comportamiento del pavimento, mientras
un valor de 100 indica un daño de gran influencia.
74
74
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Los rangos asignados por la Secretaría de Obras
públicas, para la calificación del MDR, son: MUY
MALO (0-30), el pavimento se encuentra sumamente
fallado y requiere una intervención de manera urgente y
masiva sobre la calzada; MALO (30-50), presencia
elevada de fallas de severidad baja a media, con una
suma de la extensión total de las fallas inferior al 60%
del área total mantenida; REGULAR (50-65), se
requiere hacer un mantenimiento al pavimento, con el
fin de evitar su rápida destrucción, la severidad de las
fallas es baja y la suma de la extensión total de las
fallas es inferior al 40% del área total de la calzada;
BUENO (65-85), el pavimento requiere solamente una
atención rutinaria, la severidad de las fallas es baja y la
suma de la extensión total de las fallas es inferior al
25% del área total de la calzada; MUY BUENO (85100) el pavimento se encuentra en óptimas
condiciones, sin presencia de fallas
3.1.7.2. Cálculo del Índice de Condición Global del
Pavimento – OPI
La Guía AASHTO [19] establece que “La serviciabilidad
es la habilidad específica de una sección de pavimento
para servir al tráfico”. Hay dos formas de definir la
serviciabilidad. La primera es basada en la medida del
Índice de Rugosidad, el cual considera solamente la
rugosidad del pavimento; este índice se denomina
Índice de Serviciabilidad Presente del Pavimento PSI
(Pavement Serviciability Index) y se calcula a través de
la siguiente expresión:
El valor de MDR se calcula bajo la siguiente expresión
basada en la Metodología Washington [12].
La otra forma de evaluar la serviciabilidad es a través
de la evaluación combinada de la rugosidad y el estado
superficial del pavimento a través de los daños
superficiales, expresión que la AASHTO denomina
Índice de Condición Global del Pavimento y que ha sido
evaluada y calibrada por la empresa de consultoría
TNM Limitada a lo largo de varios años de
investigación, encontrando el Índice de Condición
Global del Pavimento. El OPI representa una
interrelación del estado superficial (desempeño
funcional y estructural) y la condición del pavimento
medido en términos de rugosidad (desempeño
funcional), siendo, por lo tanto, un parámetro
representativo del estado global del pavimento. La
expresión encontrada para el OPI es:
MDR  100  (
 pn
2
i
)
(2)
Donde “pn” es el peso de ponderación del daño según
su severidad y extensión. Este cálculo, inicialmente, se
basa en los valores deducibles obtenidos de las
respectivas curvas o pesos en función del grado de
severidad y de la extensión del daño de acuerdo con el
Sistema PAVER.
Los valores deducibles se introducen en la fórmula
antes mencionada, obteniéndose el valor del MDR. En
el caso de vías con alto grado de deterioro, la raíz
cuadrada de la sumatoria de los pesos al cuadrado
puede resultar mayor que 100, por lo cual al realizar el
cálculo se obtendría valores negativos. Por definición,
el MDR es un índice positivo, en estos casos, se asigna
un valor MDR = 0.
Las tipologías de fallas analizadas en los pavimentos
flexibles para el cálculo del MDR son: Abultamientos,
Corrugaciones,
Agrietamiento
en
bloque,
Ahuellamiento, Baches, Descascaramiento, Exudación
del asfalto, Grietas longitudinales y transversales,
Hundimientos, Grietas en media luna, Peladuras, Piel
de cocodrilo, Desintegración de bordes, Fisuramiento
por reflexión, Parcheo, Brechas de servicios públicos.
El índice de fallas superficiales – MDR conjuntamente
con la medida de regularidad IRI, conforman el índice
de condición global del pavimento – OPI. La
importancia del levantamiento de fallas, radica en que a
partir del resultado de éstas se pueden programar
intervenciones rutinarias o periódicas, puntuales o
masivas, para conservar un nivel de servicio adecuado
en cada una de las calzadas vehiculares. El deterioro
de un pavimento se entiende como la serie de daños y
manifestaciones superficiales de la capa de rodadura
que perjudican la condición de circulación segura y
confortable.
PSI  5  e0.1980.000261IRI
(3)
Dónde: PSI es el Índice de Serviciabilidad del
Pavimento; (e) es la base de logaritmos neperianos y el
IRI es el Índice de Rugosidad Internacional
OPI  MDR  PSI / 50.22
(4)
Dónde: OPI es el Índice de Condición Global del
Pavimento; MDR es el Índice de Fallas Superficiales;
PSI es el Índice de Serviciabilidad del Pavimento
3.1.8. Cálculo del número estructural – SN
El procedimiento referenciado de retro cálculo para la
estimación del número estructural actual o efectivo en
pavimentos flexibles, así como del módulo resiliente de
la subrasante – Mr por la metodología AASHTO se
detalla a continuación:
Se calcula el número estructural efectivo mediante la
relación de la AASHTO [15]:
SN Efectivo  0.0045 * D * 3 EP
(5)
Dónde: SNefectivo es el número estructural efectivo
existente en pulgadas; (D) Espesor total de las capas
del pavimento sobre la subrasante, en pulgadas; (Ep)
es el Módulo equivalente de la estructura del
pavimento, en PSI (libras por pulgada cuadrada),
determinado a través de la siguiente ecuación [8].
75
75
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012

1


1 
2

D

1  


1
a

d 0  1.5 * p * a * 

2
Ep


 D Ep 


M r 1  3



a Mr








 




 

enfoque permite determinar actividades de planeación
estratégica tendientes a la optimización de los recursos
destinados al mantenimiento vial.
(6)
Dónde: (do) es la Deflexión central obtenida del
inventario deflectométrico FWD); (p) es la Presión
aplicada en la medición de deflexiones, en PSI; (a) es
el Radio del plato de carga del deflectómetro, en
pulgadas; (D) es el Espesor total de las capas del
pavimento sobre la subrasante, en pulgadas; (Ep)es el
Módulo equivalente de la estructura del pavimento, en
PSI y (Mr) es el Módulo resiliente de la subrasante, en
psi, determinado por la relación[15]:
Mr 
0.24 * P
dr * r
(7)
Dónde: (P) es la Carga aplicada por el deflectómetro de
impacto en libras; (dr) es la Deflexión Df6 medida a una
distancia de 1.8 m del centro del plato de carga; (r) es
la Distancia desde el centro del plato de carga, en
pulgadas.
El valor del CBR en pavimentos flexibles se calculó a
partir del valor del Mr encontrado por retro cálculo,
mediante la expresión. La importancia del cálculo de
este parámetro (Mr) es la correlación que existe con la
capacidad portante de la subrasante que se determina
mediante el CBR, evitando así procesos destructivos
en el pavimento cuando se mide en campo mediante
apiques [16]:
Mr = 100 x CBR (kg/cm2)
Con el fin de determinar el TPD se caracterizan tres
grupos de vehículos que son: TPD Autos, corresponde
al valor de Tránsito Promedio de 24 horas de
circulación de autos en la calzada inventariada. Los
autos hacen referencia a todos los vehículos
livianos.TPD Bus, corresponde al valor de Tránsito
Promedio de 24 horas de circulación de buses en la
calzada inventariada. Los buses incluyen los buses y
busetas.TPD Camión, corresponde al valor de Tránsito
Promedio de 24 horas de circulación de camiones en la
calzada inventariada. Los camiones corresponden a
todos los vehículos de carga con cuatro o más ruedas,
de acuerdo con la siguiente clasificación de ejes:
Camión C2: Camión de dos (2) ejes, Camión C3:
Camión de tres (3) ejes, Camión C4: Camión de cuatro
(4) ejes, Camión C5: Camión de cinco (5) ejes y
Camión >C5: Camión de más de cinco (5) ejes.
La asignación del TPD se realizó mediante la
zonificación de la ciudad, teniendo en cuenta las
características relacionadas con especificaciones viales
y los patrones de movilidad y físicos que las
diferencian, tales como la topografía, rutas de buses,
usos del suelo y usos del automóvil particular. La
ciudad se caracterizó en seis (6) zonas homogéneas
indicadas en la Figura 2.
La primera zona corresponde al corredor del rio
(autopista urbana), vía de mayor importancia de la
ciudad que atraviesa de sur a norte la ciudad, de
topografía plana y, volúmenes altos de vehículos
pesados.
(8)
3.1.9. Parámetros Geométricos del Pavimento
La información recopilada en campo corresponde a la
ubicación y descripción general del segmento vial. La
ubicación está referida a datos tales como
nomenclatura, nombre de las vías generadoras de la
nomenclatura y tipo de vía. Los datos de geometría
tales como longitud, ancho, pendiente y número de
carriles están referidos a las calzadas, bahías, bermas,
andenes, cunetas, ciclorutas y barreras de protección.
También se toman datos generales de señalización
horizontal y vertical, cámaras, válvulas, sumideros,
muros de contención y puentes. La geometría es
importante para la definición de la sección transversal
del segmento vial y la estimación de las cantidades de
obra requeridas para las intervenciones.
3.1.9.1. Tránsito Promedio Diario – TPD
El Transito Promedio Diario – TPD se define como el
número de autos, buses y camiones a partir del cual se
determina la carga sobre el pavimento, mediante el
número de ejes equivalentes de 8.2 toneladas.
Mediante la determinación y asignación del TPD en
cada segmento vial, es posible estimar la magnitud,
composición y distribución de los flujos vehiculares en
los diferentes corredores viales de la ciudad. Este
La segunda zona es la Nor-Oriental, caracterizada por
fuertes y pronunciadas pendientes en dirección de las
calles, vías con bajas especificaciones, en cuanto a la
movilidad predomina el transporte público formal e
informal, la presencia de automóviles particulares no es
significativa y con alta densidad poblacional de la zona.
La tercera zona es la Centro-Oriental, en donde se
ubica el centro de la ciudad, con tránsito alto de
vehículos de transporte público, se caracteriza por
grandes avenidas de varias calzadas y por ser de
topografía plana en el centro.
La cuarta zona es la Sur-Oriental, con altas y
pronunciadas pendientes, con densidad baja de vías
pero de alto nivel jerárquico, buenas especificaciones,
volúmenes de transito altos en vehículos particulares,
zona especialmente residencial y comercial.
La quinta zona es la Sur – Occidental, con pendientes
moderadas y planas en su extensión, residencial, con
algunos sectores industriales y comerciales, con
avenidas importantes, de varias calzadas, alta
movilidad y gran presencia de vehículos particulares y
de transporte público.
76
76
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Finalmente, la sexta zona es la Nor-Occidental, con
iguales características que la zona 2, es decir con altas
pendientes, con presencia poco significativa de
vehículos particulares, densidades altas de población y
vías con bajas especificaciones.
Jerarquía
Vial
Rural
Total
general
Tránsito Promedio Diario TPD (anual)
Total
<4.000.00 4.000.000>
genera
0
8.000.000 8.000.000
l
2495
2
0
2497
20953
2247
891
24091
3.1.9.2. Cálculo del Número de ejes equivalentes N
Con los datos asignados de tránsito promedio diario, se
determinó el número de ejes equivalentes de 8.2 ton en
cada una de las calzadas. Los volúmenes de tránsito y
su composición vehicular permiten el cálculo del
Número de Ejes Equivalente, utilizando los factores de
daño de cada tipo de vehículo y está dado por la
siguiente expresión:
N = 365*(Va*Fa + Vb*Fb + Vc*Fc)
Fig. 2.
(9)
Zonas
homogéneas para asignación del TPD
Las vías de la ciudad se clasificaron de acuerdo a una
serie de familias de vías típicas, que presentan
condiciones muy similares en su nivel de demanda. Su
identificación está en función de tres variables básicas:
el componente físico, el componente funcional y el
componente operativo. El componente físico se refiere
a la geometría transversal del segmento vial de
acuerdo al número de calzadas y carriles presentes en
cada segmento y se clasifican con base en su
capacidad. El componente funcional tiene en cuenta la
jerarquía de la vía establecida en el Plan de
Ordenamiento Territorial – POT, clasificando el
segmento vial con base en la importancia de su
ubicación dentro de la funcionalidad de la malla vial. El
componente operativo refleja las diferencias que se
presentan en los segmentos viales respecto de la
composición vehicular esperada, con base en el uso
del suelo y el estrato socio económico donde se
encuentra el segmento.
La superposición de estos tres componentes permite
clasificar familias de vías que cumplen con
características comunes, especialmente con su
localización en cada una de las zonas establecidas, lo
cual posibilita el diseño de la toma de información de
campo.
El número de calzadas resultante de las familias de
vías según la jerarquía vial y el TPD se indica en la
Tabla 1.
Tabla 1. Número de calzadas según TPD y jerarquía
Tránsito Promedio Diario TPD (anual)
Total
Jerarquía <4.000.00 4.000.000>
genera
0
8.000.000 8.000.000
Vial
l
Autopista
85
22
70
177
Artería
641
1540
728
2909
Principal
Artería
404
161
42
607
menor
Colectora
4419
335
43
4797
Servicio
12909
187
8
13104
Donde, Fa, Fb y Fc indican los factores de daño para
automóviles, buses y camiones, respectivamente y Va,
Vb y Vc son volúmenes de vehículos que corresponden
al valor del Tránsito Promedio Diario de autos, buses y
camiones.
La determinación de los Factores Daño para este
proyecto, incluidos en el cálculo del número de ejes
equivalentes, se realizó a partir de los resultados del
estudio de tránsito en cuanto a distribución del parque
automotor y empleando los factores de equivalencia
promedio utilizados más frecuentemente (Universidad
del Cauca – 1996), los cuales se indican en la Tabla 2
[17].
Tabla 2. Factores de equivalencia por tipo de vehículo
Factor de equivalencia
Tipo de
(Universidad del Cauca –
Vehículo
1996)
Buseta
0.05
Bus
1.00
C2 P
1.14
C2G
3.44
C3 – C4
6.73
C5
4.40
> C5
4.72
En cada una de las estaciones de aforo, en las cuales
se obtuvo un valor discriminado de tránsito para cada
tipo de vehículo, se llevó a cabo el cálculo de los
factores daño, multiplicando cada factor por el valor
porcentual de tránsito por cada tipo de vehículo. Es
decir, el factor daño de los buses, que incluye buses y
busetas, y el de camiones se calcularon mediante las
fórmulas:
Fb = (% TPDbusetas * 0.05) + (% TPDbuses * 1.00)
(10)
Fc = (% TPDC2P * 1.14) + (% TPDC2G * 3.44) + (%
TPDC3-C4 * 6.73) + (% TPDC5 * 4.40) + (% TPD >C5 *
4.72)
(11)
77
77
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Donde C2P, C2G, C3-C4-C5, es la caracterización de
los camiones de acuerdo al tipo de ejes, ya sea
sencillo, doble o tándem [18].
Para los autos, no se tienen factores de equivalencia,
sin embargo, para no excluir el mínimo valor de
aplicaciones que este puede aportar sobre la estructura
de pavimento, se asumirá un valor mínimo de 0.001.
Después de tener calculados todos los factores de
daño, se procedió a calcular el promedio de todos los
movimientos evaluados en campo. El resultado
obtenido es el siguiente: Fa = 0.001, Fb = 0.47 y Fc =
2.52; lo cual indica claramente que los camiones
afectan en una escala ponderada de 2.0 veces más
que un bus, ya que las cargas concentradas de sus
ejes influyen notablemente en el daño y la aparición de
las fallos superficiales. Por ello en los diseños de
pavimentos flexibles se considera como parámetro de
diseño el número equivalente (N) con una carga de 8.2
ton durante su vida útil.
3.2. MATRIZ DE DECISIONES
El segundo elemento a considerar en la
implementación del Sistema de Gestión Vial, es la
elaboración de una Matriz de Decisiones, cuyo objetivo
básico consiste en establecer la intervención requerida
en un segmento vial para mantener un nivel de servicio
adecuado y proteger el patrimonio vial en un cierto
período de tiempo. Con los datos de diagnóstico, se
hace la gestión sobre cada uno de los elementos,
definiendo previamente unos criterios apropiados del
estado de los elementos.
3.2.1. Filosofía de la Matriz de decisiones
Las estructuras de pavimento son construidas con el
objetivo de servir al tránsito en forma segura,
confortable y eficiente, sin embargo, el costo en que
deben incurrir las agencias viales para su construcción
es demasiado alto y el retorno de dicha inversión solo
es justificable en la medida que el volumen de bienes y
servicios transportados justifiquen dicha inversión, la
cual se cuantifica en el concepto denominado
Patrimonio Vial. Este concepto corresponde a la suma
del costo de tres elementos básicos: Valor del terreno,
que hace referencia al valor del espacio o franja que
corresponde al derecho de vía en la cual se construye
la calzada; el valor del pavimento, que corresponde al
valor actual de la superficie de rodadura, teniendo en
cuenta el deterioro que presenta dicha superficie por
acción de las cargas vehiculares, efectos ambientales
como el clima y la deficiencia en las especificaciones
técnicas de los materiales o procesos constructivos; y
el valor de los elementos o infraestructura asociada al
pavimento, que corresponde al costo de los materiales,
equipos, transporte y mano de obra necesarios para la
construcción de los mismos, elementos indispensables
para la operación de la estructura de pavimento en
términos estructurales, funcionales y de seguridad,
costo depreciado de acuerdo a su condición estructural
y funcional.
De otra parte, se encuentra que tanto el pavimento
como los elementos asociados presentan desde el
punto de vista funcional y estructural una evolución o
deterioro a través del tiempo generado por la acción de
las cargas, el clima y otros factores, lo cual implica que
con la sola construcción de la infraestructura no es
posible servir de manera eficiente a los usuarios
durante todo el período de vida útil estimado en el
diseño. Es decir, se hace necesario realizar acciones
de mantenimiento para conservar el valor del
patrimonio vial en un estándar mínimo que no implique
a posteriori inversiones mayores para recuperar el
patrimonio perdido por ausencia de acciones
preventivas.
Bajo los conceptos anteriormente descritos nace un
nuevo concepto denominado “Gestión de Pavimentos”
el cual se puede definir como el conjunto de
operaciones que tienen como objetivo conservar por un
período de tiempo las condiciones de seguridad,
comodidad y capacidad estructural adecuadas para la
circulación, soportando las condiciones climáticas y de
entorno en que su ubica la malla vial estudiada. Todo lo
anterior, con el objetivo de minimizar el costo
monetario, social y ecológico que implica reconstruir
una malla que ha llegado a su valor mínimo.
Los recursos de que dispone la Administración de
Medellín
para
implementar
un
modelo
de
mantenimiento adecuado que cubra la totalidad del
área pavimentada son insuficientes, al menos mientras
se modifica el paradigma de ubicar mayores recursos
para el mantenimiento de los pavimentos. Esta
situación conduce a que el modelo o Matriz de
Decisiones a estructurar, al menos inicialmente, debe
ser flexible y sostenible a través del tiempo y que
además permita ser retroalimentado con el objetivo de
establecer posibles mejoras de acuerdo a la
experiencia del comportamiento de las intervenciones
directamente en campo. De igual forma, debe permitir
en el corto y mediano plazo, la inversión de los pocos
recursos disponibles en las zonas con mejor estado,
cubriendo la mayor área de pavimento posible,
elevando progresivamente su nivel de servicio. Lo
anterior, bajo parámetros de medición y metodologías
de auscultación e intervención con base en tecnología
de punta, para que posteriormente, a largo plazo, los
estándares de estado superficial y estructural se eleven
y se puedan cubrir mayores áreas.
Por lo anterior, el concepto de “rehabilitación” o
“reconstrucción” concebido en la Matriz de Decisiones
se limita a condiciones superficiales y estructurales
extremas, dado que mientras que las mismas se
presentan se considera viable potencializar la
respuesta de los pavimentos existentes mediante
acciones anuales de mantenimiento rutinario y
periódico.
Se considera que las acciones de mantenimiento a
implementar deben ser
anuales dado que los
pavimentos son estructuras dinámicas y por lo tanto
requieren atención periódica. No obstante lo anterior, si
un pavimento se encuentra en malas condiciones y es
intervenido de forma masiva, ya sea mediante una
78
78
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
acción preventiva o correctiva, se entiende que a corto
y mediano plazo en los años posteriores solo requerirá
de intervenciones de carácter rutinario hasta que
alcance un nivel de servicio tal que requiera una
intervención mayor.
Por lo tanto, el objetivo básico de la Matriz de
Decisiones consiste en establecer la intervención
requerida en un segmento vial para mantener un nivel
de servicio adecuado y proteger el Patrimonio Vial en
un cierto período de tiempo, a partir de la combinación
de diferentes variables para cada tipo de pavimento
(flexible, rígido y articulado). Dentro de estas variables
se encuentran la jerarquía del segmento de acuerdo a
los criterios establecidos por el Plan de Ordenamiento
Territorial – POT, el nivel de tráfico proyectado que
solicita el segmento, su condición estructural y su
condición funcional.
3.2.2. Rangos de la Matriz de Decisiones
Los rangos establecidos en la Matriz de Decisiones
combinan los parámetros técnicos TPD (Tabla 3), el
SN (Tabla 4) y el OPI (Tabla 5). Estos rangos fueron
definidos y ajustados de acuerdo con los estándares de
la Secretaría de Infraestructura Física.
La clasificación por TPD (Tránsito Promedio Diario)
proyectado a un (1) año para la Matriz de Decisiones
se muestra en la Tabla 2.
Tabla 3. Clasificación del TPD
Rangos del Tránsito Promedio
Clasificación
DiarioTPD(unidades)
Bajo
Medio
Alto
TPD < 4.000.000
TPD (4.000.000 – 8.000.000)
TPD >8.000.000
La clasificación del número estructural SN, el cual
depende para estructuras de pavimento con espesor
constante y deflexiones centrales, tiene los rangos
indicados en la Tabla 3.
Tabla 4. Clasificación del SN
Rangos del número estructural SN
Clasificación
(pulgada)
Bajo
SN <3
Medio
SN (3 – 4 )
Alto
SN >4
La clasificación de las vías de acuerdo a la
serviciabilidad es a través de la evaluación combinada
de la rugosidad (IRI) y el estado superficial del
pavimento (MDR) a través de los daños superficiales,
expresión que la AASHTO denomina Índice de
Serviciabilidad Global (OPI).
Los rangos de OPI considerados para la Matriz de
Decisiones se indican en la Tabla 4.
Tabla 5. Clasificación del OPI
Índice de Serviciabilidad Global
Clasificación
OPI
Muy Bueno
85-100
Bueno
65-84
Regular
40-64
Malo
0-39
Una vez combinadas las variables se procede a la
definición de las intervenciones requeridas. Para ello se
contempla la patología de daños superficiales
presentados, las cuales difieren dependiendo de la
causa que la produce. También se considera cuando el
pavimento no tiene fallas superficiales, para cuyo caso
no requiere intervención.
Para los pavimentos flexibles se han establecido cuatro
(4) generadores de causas para las patologías
superficiales como son: problemas estructurales,
problemas geotécnicos y de confinamiento, problemas
de la mezcla asfáltica y reparaciones de la superficie.
Una vez clasificado el segmento vial de acuerdo con
las variables analizadas, y establecido el daño o los
daños presentes, se definen las intervenciones
requeridas para mantener el nivel de servicio de la vía
en un nivel óptimo durante un cierto período de tiempo.
3.2.3. Intervenciones generadas por la Matriz de
Decisiones
Las intervenciones requeridas para mantener el nivel
de servicio de la vía se clasifican en cuatro (4) grandes
grupos y se identifican con un determinado color en la
Matriz. El Mantenimiento Rutinario, se identifica con el
color verde, corresponde a las acciones preventivas
sobre la calzada y que son necesarias para lograr que
la curva de deterioro de cada uno de los parámetros se
comporte de acuerdo al diseño del pavimento. El
Mantenimiento Periódico Puntual, se identifica con el
color amarillo, corresponde a las acciones preventivas
sobre el pavimento con el objetivo de solucionar daños
puntuales presentes en el pavimento. El Mantenimiento
Periódico Masivo, se identifica con el color naranja,
corresponde a las acciones preventivas sobre el 100%
del pavimento con el objetivo de solucionar daños
generalizados en la superficie del pavimento que
abarcan áreas importantes del segmento vial. La
Rehabilitación o Reconstrucción, se identifica con el
color rojo, corresponde a acciones reactivas frente a
deficiencias estructurales severas frente al nivel de
solicitación de carga de la calzada vehicular, reparando
el 100% del mismo.
En la Figura 3, se observa el proceso de deterioro
progresivo de un pavimento en el tiempo, para el cual
se tomó como referente el modelo de deterioro HDM-4
(Metodología del Banco Mundial), que fue calibrado
para la ciudad de Medellín [19].
79
79
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
4.1. Base de Datos
Un elemento fundamental para la estructuración de la
Base de Datos es el Modelo Entidad – Relación, el cual
se presenta en una forma resumida en la Fig.5.Las
capas o reglas de negocio se llevan a cabo mediante el
desarrollo de módulos Java 1.6. La base de datos es
manejada por motor Oracle 11G.
Fig. 3. Modelación del deterioro [5]
El alcance de las intervenciones futuras a partir de la
implementación de las intervenciones generadas por la
Matriz de Decisiones, se muestran en la Figura 4.
Fig. 5. Resumen Modelo Entidad - Relación
Fig. 4. Alcance de las intervenciones [5]
De igual forma, es importante anotar que esta Matriz se
constituye en una herramienta de “gestión” la cual
permite cuantificar de manera adecuada los recursos
necesarios para la conservación del Patrimonio Vial a
partir de los datos de diagnóstico levantados
directamente en campo. Las intervenciones en
Pavimento
Flexible
tienen
relación con las
especificaciones
técnicas
normalizadas,
recomendadas para su correcta implementación a nivel
nacional, y se indican en la Tabla 6.
Tabla 6. Intervenciones en pavimento flexible
Descripción de la intervención
Tipo
Mantenimiento rutinario de la calzada
Sello de fisuras
Parcheo de huecos ó parcheo elaborado
Re nivelación de la carpeta asfáltica
Confinamiento de la estructura y re Puntual
nivelación de carpeta
Corrección de daños y slurryseal
Corrección de daños y micro aglomerado
en caliente
Masivo
Parcheo y sobre carpeta de 5 cm
Fresado
hasta
espesor
requerido,
reposición de la carpeta asfáltica y sobre
carpeta de 8 cm
Reposición total de la carpeta
Masivo
Estudios y diseños de rehabilitación de la
estructura de pavimento
4. METODOLOGÍA
La implementación del Sistema de Gestión Vial está
soportada en una Base de Datos Geográfica anidada
en una Geodatabase corporativa del Municipio de
Medellín, bajo una plataforma SIG y administrado bajo
el software de ArcGIS.
4.2. Implementación del SIG para la Visualización y
Análisis
Otro elemento constitutivo del sistema es la
visualización gráfica de todas las aplicaciones,
utilidades y desarrollos, en un ambiente SIG,
herramienta de alto poder de análisis, interpretación y
visualización, que emplea tecnología de avanzada
mediante hardware y software especializados. El SIG
permite integrar datos alfanuméricos con la información
geográfica, realizar análisis multicriterio, apoya el
establecimiento de la toma de decisiones permitiendo
la optimización de los recursos.
En la implementación del Sistema de Gestión Vial se
tiene un modelo distribuido, con un servidor de
aplicaciones; éste se comunica e interactúa con tres
servidores adicionales, el primero es el servidor de
base de datos en Oracle y el SDE, el segundo es el
servidor de archivos donde reposan las fotos y videos;
y el tercero es el servidor de ArcGIS Server. Todos los
servidores se encuentran vinculados a través de la
Web.
El esquema distribuido permite tener una mayor
disponibilidad de la información, ya que cada servidor
contribuye a sustentar los recursos que requiera la
Gestión, ya sea de almacenamiento y procesamiento
de información o de aplicaciones. Adicionalmente el
esquema distribuido brinda mayor agilidad en la
consulta de información al momento de realizar
peticiones a la interfaz; permitiendo una infraestructura
modular, versátil y con interoperabilidad. Con la
evolución de las nuevas aplicaciones y el esquema
distribuido, se logra mayor
integración de los
servidores y un uso más productivo de la información.
El esquema distribuido brinda escalabilidad y
crecimiento, es decir las redes se pueden ampliar,
80
80
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
aumentando el número de módulos o sustituyendo por
otros más potentes, es fácilmente adaptable a nuevos
problemas y soluciones del hardware.
El esquema empleado para el desarrollo o arquitectura
del sistema, está a nivel de bases de datos, de bienes y
servicios y en las aplicaciones. La capa de
presentación del sistema de Gestión se desarrolló en
Flex A.P.I. versión 4.5.1, como se ilustra en la Figura 6.
que tienen más de una calzada por tener una mayor
jerarquía vial, como por ejemplo las autopistas urbanas
y arterias principales. La longitud total levantada en
información fue de 2.053 Km-calzada. La distribución
de las calzadas y su respectiva longitud, de acuerdo al
tipo de pavimento y a la jerarquía vial, se presenta en la
Tabla 7. En el presente inventario, sólo se tuvieron en
cuenta las calzadas vehiculares.
Tabla 7. Número y Longitud de calzadas según el tipo de
pavimento
Longitud de
Tipo de
Número de
Calzadas (KmPavimento
Calzadas
calzada)
Flexible
21.327
1.789,9
Rígido
1.788
125.4
Articulado
115
8,6
Afirmado
290
40,8
Otros
571
124.3
TOTAL
24.091
2.053
Fig.6. Arquitectura del Sistema de Gestión Vial
A nivel de bases de datos el repositorio de toda la
información recopilada del inventario se encuentra en
una Geotadabase corporativa para la Secretaría de
Infraestructura Física, en la cual se encuentra la
cobertura vial (Capa Segmento), que es el elemento
geográfico del sistema.
La plataforma geográfica definida como estándar para
la Secretaría es ESRI, en todos sus productos (ArcIMS,
ArcSDE, ArcView, ArcInfo, ArcEditor). A nivel de bases
de servicios el repositorio de almacenamiento de
objetos Geográficos es ArcSDE para la parte de
servidores e interfaz con los centros de servicios de
ArcGIS. El publicador Intranet o Internet a nivel
georreferenciado y de publicación de mapas es
ArcIMS. A nivel de las aplicaciones como herramientas
de análisis técnico multicriterio, explotación y minería
de datos se tiene los desarrollos de ArcGIS (ArcView,
ArcEditor, ArcInfo) versión 10.1, el software de gestión
en Java y los browser web. Finalmente, se cuenta con
una plataforma e infraestructura tecnológica a nivel de
hardware que asegura el funcionamiento del Sistema
de Información Geográfica del aplicativo [20].
5. RESULTADOS
5.1. Análisis de los datos de inventario
La mayor importancia del proyecto de “Inventario y
Diagnóstico de la Malla Vial de la ciudad de Medellín”
radicó en el diagnóstico de la malla vial y la respectiva
asignación de intervenciones en cada segmento, de
acuerdo con la Matriz de Decisiones propuesta; se
presenta un análisis estadístico de la información en
las calzadas vehiculares de la ciudad.
En total, se recolectó información de 22.646 segmentos
viales, en los cuales se encontraron 24.091 calzadas
vehiculares, esto es debido a que hay segmentos viales
Como se observa en la Figura 7, en el inventario de la
malla vial se identificaron cinco tipos de pavimento o
superficie de rodadura: flexible, rígido, articulado,
afirmado y otros. El pavimento flexible representa el
89% del total, razón por la cual la mayoría de
intervenciones están enfocadas hacia ese tipo de
superficie. En segundo lugar está el pavimento rígido
con 7% y el pavimento articulado representa sólo el
1%.
Fig. 7. Distribución porcentual de calzadas de acuerdo al
tipo de pavimento
Similarmente, en la Tabla 8, se presenta la
discriminación realizada para las calzadas vehiculares y
los segmentos viales de acuerdo con el tipo de
jerarquía vial entregado en la cobertura. Las vías
identificadas como autopista, corresponden a las
calzadas adyacentes al corredor del río en ambos
costados.
Tabla 8.Número de calzadas vehiculares y segmentos
según el tipo de vía
Tipo de Vía
Número de
Calzadas
Número de
Segmentos
Autopista
Arteria Principal
Arteria Menor
Colectoras
Servicio
Rurales
TOTAL
177
2.909
607
4.797
13.104
2.497
24.091
172
1.962
472
4.558
12.987
2.495
22.646
81
81
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
De igual manera, para la misma clasificación por tipo
de vía, se determinó la longitud de las calzadas
correspondiente a cada tipo como se indica en la Tabla
9.
Tabla 9. Longitud de calzadas según el tipo de vía
Longitud de Calzadas
Tipo de Vía
(Km-calzada)
Autopista
26,6
Arteria Principal
296,5
Arteria Menor
54,5
Colectoras
394,1
Servicio
963,1
Rurales
318,4
TOTAL
2.053
En la Figura 8 se observa la distribución porcentual de
la longitud de calzadas según el tipo de vía. Es así
como el 47% corresponde a las vías de servicio, en
segundo lugar están las vías colectoras con el 19%,
seguidas de las vías rurales con el 16%, las arterias
principales con el 14%, las arterias menores con el 3%
y finalmente las autopistas con el 1%, siendo éstas
últimas las vías de mayor jerarquía de la ciudad.
Fig. 8. Distribución porcentual de calzadas de acuerdo al
tipo de vía POT
El mayor porcentaje de segmentos, correspondió a vías
colectoras y de servicio. Esto no implica que la mayor
longitud de inventario corresponda a este tipo de
jerarquías, ya que es claro que las calzadas de mayor
longitud estuvieron en la autopista. Las vías colectoras
y las vías de servicio, en un alto porcentaje son
segmentos de una sola calzada y esto se puede
apreciar en el resumen que se presenta en la Fig. 9,
donde se aprecia la configuración de la sección
transversal del total de segmentos evaluados. Igual
sucede con las vías rurales.
Fig. 9. Distribución del número de segmentos según la
configuración de la sección transversal
5.2. Resultado de la corrida de la matriz
Para la corrida de la matriz se utilizaron las calzadas
vehiculares con superficie en pavimento flexible por
cada tipo de jerarquía vial, para obtener finalmente el
tipo de intervención.
La longitud de calzadas y número de segmentos en
pavimento flexible por tipo de jerarquía vial, se indica
en la Tabla 10. De ésta longitud, el 49% corresponde a
vías de servicio, el 22% a vías colectoras, luego el 15%
a vías arterias principales, el 10% a vías rurales, el 3%
a vías arterias menores y finalmente el 1% a las
autopistas.
Tabla 10. Número de segmentos y longitud de calzadas
según el tipo de vía
Longitud de
Número de
Tipo de Vía
Calzadas (KmSegmentos
calzada)
Autopista
177
26.6
Arteria Principal
2606
268.1
Arteria Menor
606
54.3
Colectora
4720
388.1
Servicio
11708
875.3
Rural
1510
177.5
TOTAL
21.327
1.789,9
Dentro del grupo de calzadas en pavimento flexible, la
matriz arrojó la clasificación del estado de las vías
según el rango de OPI, como se indica en la Tabla 11.
Se encontró que el 41% está en regular estado, el 30%
en mal estado, el 21% en buen estado y el 7% es
excelente; sin embargo, sumando los estados bueno y
excelente, se contabiliza el 28% de las vías en esas
condiciones.
Tabla 11. Longitud y porcentaje de intervenciones
generadas según los rangos de OPI
Longitud de
OPI
Calzadas (Km- Porcentaje
Estado
calzada)
Malo
0-39.9
550.9
30.8%
40-64.9
740.8
41.4%
Regular
65-84.9
368.9
20.6%
Bueno
85-100
129.3
7.2%
Excelente
TOTAL
1789.9
100.0%
82
82
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
Análogamente, la matriz arrojó la clasificación del
estado de las vías en pavimento flexible según el rango
de IRI, como se indica en la Tabla 12. Como se puede
observar, este criterio duplica el porcentaje de estado
excelente con el 15% y disminuye el porcentaje de
estado bueno con el 7% con relación al criterio OPI,
pero ambos sumados contabilizan el 22%, que es
similar al arrojado por este criterio. Luego viene el
estado regular con el 53%, ampliando el margen de
aceptabilidad en comparación con el OPI y finalmente
el estado malo con el 26%.
Tabla 12. Longitud y porcentaje de intervenciones
generadas según los rangos de IRI
Longitud de
IRI
Calzadas (Km- Porcentaje
Estado
calzada)
12 a 15
391.8
26.3% Malo
5.5 a 11.99
946.2
52.5% Regular
4.81 a 5.49
130.8
6.5% Bueno
0 a 4.8
TOTAL
321.1
1 789.9
14.6% Excelente
100%
Los resultados discriminados de acuerdo al tipo de
intervención, arrojados por la matriz de decisiones se
observan en el Anexo No. 1
6. CONCLUSIONES
Mediante la aplicación de los Sistemas de Información
Geográfica – SIG al proceso de Gestión de la Malla Vial
de la ciudad de Medellín, se caracterizaron y analizaron
los elementos más importantes de su infraestructura y se
identificaron los parámetros técnicos y geométricos que
la conforman.
Estos elementos y parámetros se integraron
espacialmente sobre una Geodatabase corporativa, que
permite el despliegue de diferentes capas temáticas de
estudio, tales como la red vial, topografía, usos del suelo,
red hídrica, catastro, equipamientos colectivos, espacios
públicos, división administrativa, sistemas de transporte,
obras de infraestructura, tipos de superficie de rodadura,
estados de condición, jerarquía vial, tipo de tráfico,
pendientes, tipos de intervención, entre otros. En
general, un conjunto de información que permite al
usuario de los SIG disponer de un mejor entorno visual,
que le facilita el análisis de la información.
De esta manera y teniendo como base la Matriz de
Decisiones, que se desarrolló atendiendo los estándares
de la malla vial de la ciudad, se realizaron procesos
complejos de análisis multicriterio y se generaron
diferentes recomendaciones de intervención. Las
intervenciones generadas por la Matriz de Decisiones se
obtuvieron luego de los procesos de análisis del modelo
de deterioro HDM-4, el cual fue calibrado para la ciudad,
teniendo en cuenta los criterios de priorización
establecidos.
Entre los resultados obtenidos, se puede destacar que
el 89% de las calzadas de la ciudad corresponden a
pavimentos flexibles, razón por la cual la mayoría de
intervenciones están enfocadas hacia ese tipo de
superficie. En segundo lugar está el pavimento rígido
con 7% y el pavimento articulado representa sólo el
1%.
Del total de los 2.053 Km-calzada de longitud de la
malla vial, según el tipo de vía o la jerarquía vial, el
47% corresponde a las vías de servicio, en segundo
lugar están las vías colectoras con el 19%, seguidas de
las vías rurales con el 16%, las arterias principales con
el 14%, las arterias menores con el 3% y finalmente las
autopistas con el 1%, siendo éstas últimas las vías de
mayor jerarquía de la ciudad.
La Matriz de Decisiones arrojó que la clasificación del
estado según el rango de IRI para las vías en
pavimento flexible, es de 15% en estado excelente, 7%
en estado bueno, 53% en estado regular y 26% en
estado malo.
Finalmente, con los resultados obtenidos, se analizaron
los datos estadísticos del inventario de la infraestructura
y los mapas de las intervenciones requeridas en la
gestión de la malla vial. Estos resultados, dinámicos en
el tiempo, constituyen la herramienta principal de gestión
de la Secretaría de Infraestructura Física. Ellos son la
base para tomar decisiones y optimizar los recursos en
la solución de un problema en particular y en la
planificación del mantenimiento de la malla vial de la
ciudad, lo que permite ofrecer un mejor servicio a la
comunidad.
REFERENCIAS
[1] P. Álvarez, F. López-Rodríguez, J. L. Canito, F. J. Moral
& A. Camacho. “Development of a measure model for
optimal planning of maintenance and improvement of
roads”.Computers & Industrial Engineering, Vol. 52,
Issue 3, pp. 327-335, April 2007.
[2] J. Coutinho-Rodrigues, A. Simão & C. H. Antunes. “A
GIS-based multicriteria spatial decision support system
for planning urban infrastructures”. Decision Support
Systems, Vol. 51, Issue 3, pp.720-726, June 2011.
[3] W. Chen, J. Yuan & M. Li. “Application of GIS/GPS in
Shanghai Airport Pavement Management System”.Key
Laboratory of Road and Traffic Engineering of the
Ministry of Education, Tongji University, Shanghai
200092, P.R. China, Shanghai Airport Authority,
Shanghai 200335, P.R. China.
[4] X. Wang. “Integrating GIS, simulation models, and
visualization in traffic impact analysis”. Computers,
Environment and Urban Systems, Vol. 29, Issue 4, pp.
471-496,July 2005.
[5] TNM TECHNOLOGY & MANAGEMENT. Online [Nov.
2011].
[6] W. A. Robertson, N. Sauceda & R. Olive. “Condicion de
las calles, evaluación de la infraestructura vial”.
Departamento de Obras Públicas, Agencia de
Mantenimiento de Calles. Los Angeles, Septiembre de
2008.
83
83
Ing. USBMed, Vol. 3, No. 2, Julio-Diciembre 2012
[7] M. W. Sayers & S. M. Karamihas. “The Little Book of
Profiling. Basic Information about Measuring and
Interpreting Road Profiles”. The Regent of the University
of Michigan. Online [September. 1998].
[14] U.S. Army Corps Of Engineers. “O&M: PAVER Concrete
Surface Airfields Pavement Condition Index (PCI)”, UFC
3-270-05. 15 March 2001. Online [Nov. 2012].
[8] U.S. Department of Transportation Federal Highway
Administration. “Geotechnical Aspects of Pavements
Reference Manual”, Online [Nov. 2012].
[15] C. H. Higuera Sandoval, “Caracterización de la
resistencia de la subrasante con la información del
deflectómetro de impacto”. Revista Facultad de
Ingeniería UPTC, Vol. 19, No. 28. Pp. 73-92, 2010.
[9] U.S. Department of Transportation Federal Highway
Administration.
“Ground
Penetrating Radar for
Measuring Pavement Layer Thickness”, Publication
Number: FHWA-HIF-00-015. 2000. Online [Nov. 2012].
[16] H. A. Rondón & F. A. Reyes. “Metodologías de diseño
de pavimentos flexibles: Tendencias, alcances y
limitaciones”. Universidad Militar Nueva granada,
Bogotá, Colombia, 2007 pp. 41-65.
[10] Mastrad, Quality and Test Systems. Online [Nov. 2012].
[17] Consorcio troncal carrera 7. “Estudios y diseños troncal
carrera 7, Informe final de pavimentos – parámetros de
diseño”, pp. 20, 2008.
[11] Instituto Nacional de Vías, Universidad de Cauca,
“Método De Ensayo Normal Para El Uso Del
Penetrómetro Dinámico De Cono En Aplicaciones De
Pavimentos A Poca Profundidad”. Online [Nov. 2012].
[12] U.S. Department of Transportation Federal Highway
Administration. “Distress Identification Manual for the
long-term pavement performance program”, Publication
Year: June 2003. Online [Nov. 2012].
[13] U.S. Department of Transportation Federal Highway
Administration. “Guidelines for Detection, Analysis, and
Treatment of Materials-Related Distress in Concrete
Pavements Vol II”, Publication Number: FHWA-RD-01164, Date: March 2002. Online [Nov. 2012].
[18] F. Sánchez. Caracterización del Tránsito Modulo 4”.
Online [Dic. 2012].
[19] Secretaría de Infraestructura Física, Municipio de
Medellín. SOLTEC ING Soluciones Técnicas, “Ajuste y
calibración de modelos de deterioro para el sistema de
gestión vial e infraestructura asociada del Municipio de
Medellín”. Informe Final, pp. 1-47, junio 2011.
[20] ESRI. Understandingourworld,
10.1”. Online [Nov. 2012].
“Introducing
ArcGIS
84
84

Documentos relacionados