Descargar Libro de Actas - Presentación

Transcripción

Descargar Libro de Actas - Presentación
I Encuentro de Investigadores en Infraestructuras
Inteligentes (EI3 2011)
Organizadas por:
Actas del
I Encuentro de Investigadores en Infraestructuras
Inteligentes (EI3 2011)
Edificio Multidepartamental
Guadalajara
17 de marzo de 2011
Editores de la presente edición:
Luis Bengochea Martínez
Antonio García Cabot
Eva García López
José Antonio Gutiérrez de Mesa
Luis de Marcos Ortega
Editorial: Servicio de Publicaciones - Universidad de Alcalá
El contenido de este libro no podrá ser reproducido,
ni total ni parcialmente, sin el previo permiso escrito del editor.
Todos los derechos reservados
@ Universidad de Alcalá
Servicio de Publicaciones
Plaza de San Diego, s/n
28801 Alcalá de Henares
www.uah.es
ISBN: 978-84-8138-911-1
Depósito Legal: M-11602-2011
Impresión y encuadernación: Impulso Global Solutions
Impreso en España
I Encuentro de Investigadores en Infraestructuras Inteligentes
Presidencia de honor
José María Barreda Fontes (Presidente de Castilla-La Mancha)
Fernando Galván Reula (Rector de la UAH)
Íñigo Meirás Amusco (Consejero Delegado de Ferrovial)
Presidencia institucional
María Ángeles García Moreno (Consejera de Educación, Ciencia y Cultura
de Castilla-La Mancha)
José Antonio Gutiérrez de Mesa (Vicerrector de la Universidad de Alcalá)
Alberto López-Oleaga López (Director de Innovación y Procesos de
Ferrovial)
Presidencia de las Jornadas
Rafael Fando Mestre (Ferrovial)
Carlos F. Essebag Benchimol (Matemáticas)
Juan Jesús García Domínguez (Electrónica)
Saturnino Maldonado Bascón (Teoría de la Señal y Comunicaciones)
Agustín Martínez Hellín (Automática)
José Javier Martínez Herráiz (Ciencias de la Computación)
Antonio Sastre Merlín (Geología)
Comité de Organización
Antonio Abellán García (Universidad de Alcalá)
Guillermo de Alarcón Pareja (Universidad de Alcalá)
Roberto Barchino Plata (Universidad de Alcalá)
Luis Bengochea Martínez (Universidad de Alcalá)
Luciano Boquete Vázquez (Universidad de Alcalá)
Alvaro Carbajo Rafel (CI3)
Gabriel Cuervo Leicach (CI3)
Enrique Díez Barra (Viceconsejero de Castilla-La Mancha)
Eladio Domínguez Murillo (Universidad de Zaragoza)
Carlos F. Esebbag Benchimol (Universidad de Alcalá)
Ángel Francés Román (Universidad de Zaragoza)
Dolores Francés San Román (CI3)
Antonio García Cabot (Universidad de Alcalá)
Eloy García Calvo (IMDEA AGUA)
Eva García López (Universidad de Alcalá)
Verónica González Araujo (Universidad de Alcalá)
5
I Encuentro de Investigadores en Infraestructuras Inteligentes
José María Gutiérrez Martínez (Universidad de Alcalá)
José Ramón Hilera González (Universidad de Alcalá)
Juan Carlos López López (UCLM)
Francisco López Ferreras (Universidad de Alcalá)
Luis de Marcos Ortega (Universidad de Alcalá)
Blanca Menéndez Olías (Fundación General de la Universidad de Alcalá)
Salvador Otón Tortosa (Universidad de Alcalá)
Mario Piattini Velthuis (UCLM)
Ana María Privado Rivera (Fundación General de la Universidad de Alcalá)
Juan Antonio Rodrigo Yanes (Universidad de Alcalá)
Juan Ramón Velasco Pérez (Universidad de Alcalá)
6
I Encuentro de Investigadores en Infraestructuras Inteligentes
Comité Científico
Bárbara Álvarez Torres (UPCT)
Luis Miguel Bergasa Pascual (Universidad de Alcalá)
Manuel Blanco Velasco (Universidad de Alcalá)
Tomasa Calvo Sánchez (Universidad de Alcalá)
Manuel Felipe Cátedra Pérez (Universidad de Alcalá)
Pilar Chías Navarro (Universidad de Alcalá)
Emilio Chuvieco Salinero (Universidad de Alcalá)
Arturo de la Escalera Hueso (UC3M)
Óscar Esteban Martínez (Universidad de Alcalá)
Miguel Ángel Esteso Díaz (Universidad de Alcalá)
José Raúl Fernández del Castillo (Universidad de Alcalá)
Eugenio José Fernández Vicente (Universidad de Alcalá)
M. Ángeles Fernández de Sevilla (Universidad de Alcalá)
Luis Fernández Sanz (ATI)
Elena García Barriocanal (Universidad de Alcalá)
Eloy García Calvo (Universidad de Alcalá)
M. Pilar Jarabo Amores (Universidad de Alcalá)
Manuel Jiménez Buendía (UPCT)
José Antonio Malpica Velasco (Universidad de Alcalá)
Tomás Mancha Navarro (Universidad de Alcalá)
Esperanza Marcos Martínez (URJC)
José María Mercé Hospital (Universidad de Alcalá)
Daniel Meziat Luna (Universidad de Alcalá)
Antonio Mocholí Salcedo (UPV)
Emilio Olías Ruiz (UC3M)
M. José Ortiz Bevia (Universidad de Alcalá)
Rafael Rico López (Universidad de Alcalá)
Francisco J. Rodríguez Sánchez (Universidad de Alcalá)
M. Dolores Rodríguez Frías (Universidad de Alcalá)
Manuel Rosa Zurera (Universidad de Alcalá)
Sancho Salcedo Sanz (Universidad de Alcalá)
Francisco Manuel Sáez de Adana Herrero (Universidad de Alcalá)
José Francisco Sancho Comins (Universidad de Alcalá)
Manuel Francisco Segura Redondo (Universidad de Alcalá)
Salvador del Valle Ballesteros (GESFOR)
7
I Encuentro de Investigadores en Infraestructuras Inteligentes
8
I Encuentro de Investigadores en Infraestructuras Inteligentes
Prólogo
Como fruto de la colaboración entre la Universidad de Alcalá, La Junta de Comunidades de Castilla La Mancha y la empresa Ferrovial a través de la Fundación Centro de
Innovación de Infraestructuras Inteligentes, surgen este “I Encuentro de Investigadores en Infraestructuras Inteligentes (EI3-2011)”, con el objetivo de presentar y
poner en común trabajos y experiencias en el ámbito de la aplicación de las Tecnologías que puedan ser de utilidad a los asistentes, tanto empresas como grupos de investigación, aportando ideas y soluciones a problemas reales relacionados con diferentes
aspectos de la utilización de estas tecnologías al servicio de la sociedad digital en
general y a sus nuevos problemas con que nos desafía.
Las áreas de interés de este primer encuentro incluyen las siguientes, aunque no
están limitadas a ellas: Infraestructuras Inteligentes, Eficiencia Energética, Sensores,
Software Aplicado a Infraestructuras, Eficiencia Ecológica, Movilidad, Ciudades
Sostenibles, Autopistas del Futuro, Transporte Ecológico y Eficiente, Domótica, Automatización, Sostenibilidad Medioambiental, Aeropuertos, Vehículos Inteligentes,
Gestión de Residuos y Energías Renovables.
En relación con estas áreas tecnológicas, en este libro de actas se recoge la descripción de trabajos de desarrollo de aplicaciones y posibles soluciones en los que se
han utilizando herramientas, métodos y tecnologías para la automatización de las
actividades de análisis, diseño, construcción, implementación, pruebas e implantación
de los productos presentados por sus autores. Además de aplicaciones de gestión para
su ejecución en un entorno de escritorio, también pueden encontrarse en el libro complejas aplicaciones basadas en las tecnologías más avanzadas y para cuyo desarrollo
los autores han seguido un enfoque de ingeniería.
Otros trabajos están relacionados con las comunicaciones, la construcción, gestión,
configuración y verificación de redes de ordenadores para el control energético de
grandes ciudades; así como las aportaciones de los pavimentos inteligentes, tanto en lo
que respecta a la instalación, configuración y mantenimiento, como de las mejoras que
puede introducir en los medios urbanos.
Finalmente, se han seleccionado valiosas aportaciones vinculadas a casos prácticos
como pueden ser la mejoras de control en parque eólicos o las consideraciones de la
eficiencia de las ciudades. Aunque los trabajos incluidos en este libro de actas pueden
ser de aplicación en cualquier ámbito, la mayor parte de ellos pueden orientarse al
contexto de la explotación de negocio de las empresas participantes y a mejorar la
calidad de vida de todos los ciudadanos.
El objetivo de las propuestas y estudios realizados por los diferentes autores es que
sus trabajos puedan servir de referencia y aportar nuevas ideas en relación con la
aplicación de las tecnologías de la información y las comunicaciones en el ámbito de
la sostenibilidad. Para ello, en algunos casos se ha recurrido a plantear supuestos
9
I Encuentro de Investigadores en Infraestructuras Inteligentes
utilizando información y escenarios ficticios, pero suficientemente realistas, por lo
que es posible que el lector pueda asociarlos, por pura coincidencia, a otros conocidos.
Estas jornadas han sido una realidad gracias a la estrecha colaboración y armonía
existente entre las tres instituciones que forman el patronato CI3 y que tuvo su origen
en el convenio marco de colaboración suscrito por las partes como respuesta a un
proyecto planteado en la convocatoria de Campus de Excelencia Internacional de
2009 donde la UAH obtuvo la mención de Campus Prometedor y todo el equipo de
trabajo espera que en sucesivas ediciones nos encontremos con una cantera de ideas
que sirvan de punto de encuentro para que surjan proyectos de interés empresarial.
José Antonio Gutiérrez de Mesa
Vicerrector de Innovación y Nuevas Tecnologías de la Universidad de Alcalá
10
I Encuentro de Investigadores en Infraestructuras Inteligentes
Índice de Contenidos
Prólogo
José Antonio Gutiérrez de Mesa
9
Ponencias
Integración de redes de sensores en edificios inteligentes
Juan Antonio Nazabal; Victor Torres; Francisco Falcone;
Carlos Fernández-Valdivielso; Ignacio Matías
17
Ambú: Arquitectura de servicios de supercomputación en la nube
Javier Diego; Daniel Molina; Miguel Ortega; Álvaro García
21
Diseño inteligente de parques eólicos mediante nuevos modelos de computación heurística
Beatriz Saavedra-Moreno; Arturo Paniagua-Tineo;
Antonio Portilla-Figueras; Sancho Salcedo-Sanz
25
HESPERIA: Plataforma de soporte a la vigilancia de grandes infraestructuras y
espacios públicos
Félix J. Villanueva; Miguel A. Martinez; Cleto Martin; David Villa; María
J. Santofimia
29
E-LAB Modelo de gestión del conocimiento
Miriam Martinez Muñoz
33
Inteligencia Artificial aplicada a la mejora de la Calidad Empresarial
José Amelio Medina; Carmen de Pablos; Lourdes Jimenez; Jorge Peñas
37
El Pavimento Inteligente
Felix Navarro; Angel Lopez; Mario Piattini
41
A Common-Sense Approach for Automatic Service Composition in Ambient
Intelligence
María J. Santofimia; Félix J. Villanueva; Miguel A. Martínez; Francisco
Moya; Juan Carlos López
45
Plataforma de alto nivel para el desarrollo de sensores y actuadores de bajo
coste en entornos inteligentes
Cleto Martín; David Villa; Óscar Aceña; Félix Jesús Villanueva;
Francisco Moya
49
11
I Encuentro de Investigadores en Infraestructuras Inteligentes
4D Trajectory generation using dynamics and location information of an aircraft
Mariano Gómez Plaza; Sebastián Sánchez Prieto
53
A new Attitude Control System (ACS) for aircrafts and satellites
Mariano Gómez Plaza; Sebastián Sánchez Prieto
57
SACAT: Un sistema de ayuda a la conducción y asistencia en caso de accidentes
Javier Fernández Andrés; Nourdine Aliane Saadi;
Sergio Bemposta Rosende; Mario Mata
61
Elcano: Infraestructura multimodal para navegación en interiores
Miguel Ángel Martínez; Félix Jesús Villanueva; Francisco Moya;
Carlos González; Juan Carlos López
66
Evaluación funcional del uso de la tecnología RFID en aplicaciones ferroviarias
Raquel Martínez Barbero; Enrique Fernández Pinel; Jesús María González
Fernández; José Hierro Ortega;Valentín González Barbosa
69
Multi-radio platform coexistence in the 5 GHz band for railway applications
Jorge Higuera; Raquel Martínez Barbero; Luis Alonso; Enrique Flores;
Jesús González
73
WHISNU: Plataforma abierta de bajo coste para Infraestructuras Inteligentes
Jesus Ranz Abad; Saturnino Maldonado
79
Smart Cities. Eu & PEOPLE.
Miguel Ruiz; Ricardo Buendía; Rafael Salamanca; José Ángel Álvarez
83
CoSGrid: Una plataforma de servicios orientada a objetos para Smart Grid
David Villa; Cleto Martín; Félix Jesús Villanueva; Francisco Moya;
Juan Carlos López
89
Un nuevo concepto de ciudad: Eficiencia
Antonio Ruiz de Elvira; Rosa Cervera; Isabel Ordieres; Alberto Alarcón
93
Infraestructuras Inteligentes en el Internet del Futuro
Diego Casado Mansilla; Mario Vega Barbas; Maite López Merayo
97
Arquitectura DOMOSEC para automatización inteligente de edificios: hacia el
edificio sostenible
Miguel A. Zamora; José Santa; Antonio J. Jara;
Antonio F. Gomez-Skarmeta
101
Importancia de las previsiones climáticas para la planificación de infraestructuras y la gestión energética
105
12
I Encuentro de Investigadores en Infraestructuras Inteligentes
Maria Jose Ortiz; Francisco Álvarez; Antonio Ruiz de Elvira;
Giovanni Liguori
Context-aware, Personalized Services for Smart Cities
Hasier Iñan; Manel Palau; Victor García; Alberto Pobre
109
Sistema para la navegación en interiores mediante técnicas de Realidad Aumentada
Carlos González-Morcillo; Miguel Ángel Martínez; Félix Jesús
Villanueva; David Vallejo; Juan Carlos López
113
Monitorización Automática del Nivel de Llenado de Contenedores de Residuos
Rafael Barea; José Joaquín Cantos Frontela; Jesús Sánchez Monedero;
Juan Manuel Miguel Jiménez; José Manuel Rodríguez-Ascariz
117
Real Time Monitoring of Railway Traffic Using Fiber Bragg Grating Sensors
Massimo L. Filograno
121
Detección y clasificación automática de vehículos por medio del sonido
Enrique Alexandre; Roberto Gil; Lucas Cuadra; Raúl Vicen;
Manuel Rosa
125
Herramienta de localización a demanda basada en telefonía móvil y GPS
Juan Ignacio Godino LLorente; Fernando Cruz Roldán;
Manuel Blanco Velasco; Victor Osma Ruíz; Nicolás Sáenz Lechón
129
Development of low consumption HVPS for MAPMTs Space applications
Hector Prieto; José Morales de los rios; Guadalupe Sáez;
Noelia Pacheco; María Dolores Rodríguez
133
A computing model for the Science Data Center of high energy Physics Spacebased experiments.
José Alberto Morales de los Ríos; María Dolores Rodríguez Frías;
Luis del Peral; Héctor Prieto; Noelia Pacheco
139
La Inteligencia de Negocio en Ambientes Pervasivos: Infraestructuras Inteligentes basadas en la Gestión de Acontecimientos
Eladio Domínguez; Ángel Francés
145
Aportaciones para el postproceso de datos ante el envío de parámetros muestreados en momentos críticos de vehículos aéreos no tripulados
Manuel Sánchez Rubio
149
Técnicas de Localización en Plataforma Aeroportuaria basadas en Teoría del
Trazado de Rayos
Antonio del Corte Valiente; Oscar Gutiérrez Blanco;
José Manuel Gómez Pulido
153
13
I Encuentro de Investigadores en Infraestructuras Inteligentes
Índice de Autores
Alberto Alarcón
Alberto Pobre
Ángel Francé
Ángel López
Antonio del Corte Valiente
Antonio F. Gomez-Skarmeta
Antonio J. Jara
Antonio Portilla-Figueras
Antonio Ruiz de Elvira
Arturo Paniagua-Tineo
Beatriz Saavedra-Moreno
Carlos Fernández-Valdivielso
Carlos González
Carlos González-Morcillo
Carmen de Pablos
Cleto Martin
David Vallejo
David Villa
Diego Casado Mansilla
Eladio Domínguez
Enrique Alexandre
Enrique Fernández Pine
Enrique Flore
Félix J. Villanueva
Félix Navarro
Fernando Cruz Roldán
Francisco Álvarez
Francisco Falcone
Francisco Moya
Giovanni Liguori
Guadalupe Sáez
Hasier Iñan
Héctor Prieto
Ignacio Matías
Isabel Ordieres
Javier Fernández Andrés
Jesús González
Jesús María González Fernández
Jesús Ranz Abad
Jesús Sánchez Monedero
Jorge Higuera
Jorge Peñas
José Amelio Medina
José Ángel Álvarez
93
109
145
41
153
101
101
25
93, 105
25
25
17
117
66
37
29,49,89
113
29,49,89
97
145
125
l69
73
29,45,49,66,89,113
41
129
105
117
45,49,66,89
105
133
109
133
17
93
61
73
69
79
117
73
37
37
83
14
I Encuentro de Investigadores en Infraestructuras Inteligentes
José Hierro Ortega
José Joaquín Cantos Frontela
José Manuel Gómez Pulido
José Manuel Rodríguez-Ascariz
José Morales de los ríos
José Santa
Juan Antonio Nazabal
Juan Carlos López
Juan Ignacio Godino Llorente
Juan Manuel Miguel Jiménez
Lourdes Jiménez
Lucas Cuadra
Luis Alonso
Luis del Peral
Maite López Merayo
Manel Palau
Manuel Blanco Velasco
Manuel Sánchez Rubio
Manuel Rosa
María Dolores Rodríguez
María J. Santofimia
Maria Jose Ortiz
Mariano Gómez Plaza
Mario Mata
Mario Piattini
Mario Vega Barbas
Massimo L. Filograno
Miguel A. Martínez
Miguel A. Zamora
Miguel Ruiz
Miriam Martínez Muñoz
Nicolás Sáenz Lechón
Noelia Pacheco
Nourdine Aliane Saadi
Óscar Aceña
Oscar Gutiérrez Blanco
Rafael Barea
Rafael Salamanca
Raquel Martínez Barbero
Raúl Vicen
Ricardo Buendía
Roberto Gil
Rosa Cervera
Sancho Salcedo-Sanz
Saturnino Maldonado
Sebastián Sánchez Prieto
Sergio Bemposta Rosende
69
117
153
117
133
101
17
45,66,89,113
129
117
37
125
73
139
97
109
129
149
125
139
29,45
105
53,57
61
41
97
121
29
101
83
33
129
133,139
61
49
153
117
83
69,73
125
83
125
93
25
79
53,57
61
15
I Encuentro de Investigadores en Infraestructuras Inteligentes
Valentín González Barbosa
Víctor García
Víctor Osma Ruíz
Víctor Torres
69
109
129
17
16
I Encuentro de Investigadores en Infraestructuras Inteligentes
Integración de redes de sensores en edificios inteligentes
J.A. Nazabal1, V. Torres1, J. Becerra1, F. Falcone1, C. Fernández-Valdivielso1 y
I.R. Matías1
1
Departamento de Ingeniería Eléctrica y Electrónica, Universidad Pública de Navarra,
Campus de Arrosadia s/n, 31006, Pamplona
Persona de contacto: J. A. Nazabal ([email protected])
Abstract. In this work we present a system based on the integration of different
type of sensor technologies. A ZigBee temperature sensor prototype has been
integrated with a fiber optic sensor network and a KNX sensor network. The
system also has the capability of remote monitoring in real-time all the different
sensor presented in the system.
Keywords: Fiber Optic, ZigBee, KNX, Integration, Intelligent Buildings
1 Introducción
Los sensores basados en redes de difracción en fibra óptica (FBG) [1]-[2],
presentan una serie de ventajas frente al cableado convencional como por ejemplo su
ligereza, su resistencia a la corrosión, su inmunidad electromagnética y su baja
atenuación.
Los dispositivos de comunicación inalámbrica ZigBee cuentan con un bajo
consumo y una baja velocidad de transmisión, características que los convierten en
buenos candidatos para su uso en redes de sensores.
Para la realización de este proyecto se ha utilizado tecnología KNX, como estándar
y referente mundial en el sector y donde el grupo participante cuenta con una extensa
experiencia.
En pasados trabajos, ya se ha conseguido realizar satisfactoriamente la integración
de una serie de sensores ópticos de temperatura y deformación junto con varios
sensores meteorológicos KNX en la fachada de un edificio real [3].
La finalidad de este trabajo consiste precisamente en integrar las diferentes
tecnologías ZigBee, sensores de fibra óptica y KNX en un mismo sistema a nivel de
laboratorio que ofrezca la funcionalidad de monitorización remota de todos los
sensores.
2 Descripción
El sistema consiste en una parte software y otra hardware. El interrogador de fibra
óptica utilizado para el sensado de los sensores ópticos incorpora un sistema operativo
17
I Encuentro de Investigadores en Infraestructuras Inteligentes
Windows XP embebido, que será utilizado para ejecutar parte de los módulos
software implementados que componen el sistema.
2.1
Parte hardware del sistema
Como se puede ver en la Fig 1, la parte central del sistema es el interrogador
óptico, modelo FS5200 de la empresa FiberSensing.
Fig. 1. Parte hardware del sistema
La red de sensores KNX consiste en dos sensores analógicos, uno de temperatura y
el otro de luminosidad. Los modelos utilizados son WS 10T y WS 10 H de la marca
Jung. Ambos sensores están conectados a un modulo de cuatro entradas analógicas,
concretamente modelo 2214 REG A de Jung. Este módulo ha sido programado para
mandar los datos de los sensores únicamente bajo demanda. Para la comunicación de
dispositivos KNX con redes IP, es necesaria la utilización de un interfaz hardware
KNX/IP. El dispositivo utilizado en este proyecto a sido un modelo N148/21 de la
marca Siemens. El interfaz KNX/IP se conectará al interrogador mediante un cable
Ethernet UDP a uno de los dos interfaces de red disponibles.
La red óptica consiste en dos sensores de temperatura, conectados cada uno de
ellos a un canal óptico diferente del interrogador. La red ZigBee consiste en dos
sensores de temperatura y un coordinador de red, insertado en un dispositivo XBee
Explorer USB conectado a un Puerto del interrogador mediante un cable USB. Los
sensores de temperatura ZigBee desarrollados para este proyecto están basados en
módulos XBee de la marca Digi International. El sensor de temperatura ZigBee
desarrollado consiste en un sensor analógico de temperatura (un LM335 con
encapsulado plástico TO-92) conectado a un pin del modulo XBee configurado como
entrada analógica. El sensor de temperatura funciona con 5 VDC y el módulo XBee,
18
I Encuentro de Investigadores en Infraestructuras Inteligentes
con 3.3 VDC, con lo que es necesario la utilización de circuiteria adicional. Para la
obtención de estos dos voltajes diferentes, se utilizan dos pilas AA junto con un
conversor DC/DC que proporciona 5 VDC y un LD1117V33 que suministra 3.3
VDC. El módulo se programa para enviar al coordinador de red el valor registrado en
su entrada analógica cada segundo, valor que puede ser parametrizado.
2.2
Parte software del sistema
Como se muestra en la Fig 2, el sistema consiste en cinco módulos separados que se
intercomunican entre si mediante UDP o TCP, dependiendo de la naturaleza de los
datos a intercambiar. Para datos críticos, se hará uso del protocolo TCP mientras que
para datos de “streaming”, UDP. Todos los módulos a excepción del SensorViewer se
ejecutarán en el interrogador mientras que este último deberá ejecutarse en la máquina
remota de monitorización.
Fig. 2. Parte software del sistema
2.2.1
OpticModule
El interrogador óptico utiliza un software propietario desarrollado en labVIEW. Esta
herramienta contiene diferentes variables compartidas mediante las cuales se puede
acceder externamente a los parámetros de los sensores como el nombre, las unidades
o los valores medidos.
2.2.2
KNXModule
Este modulo utiliza la librería “Calimero” [4] desarrollada en java por la universidad
tecnológica de Viena para acceder a los valores de los sensores de la red KNX a
través del interfaz KNX/IP.
19
I Encuentro de Investigadores en Infraestructuras Inteligentes
2.2.3
ZigBeeModule
Cada vez que el coordinador de la red ZigBee recibe un paquete de datos, manda la
información recibida por su puerto serie a través del cable USB hasta el puerto USB
del interrogador. Allí, el ZigBeeModule obtiene el nombre del sensor que a mandado
la información, así como el valor medido por este.
2.2.4
Hub
Este modulo manda peticiones de datos a los módulos OpticModule, KNXModule y
ZigBeeModule para obtener los datos de todos los sensores. Finalmente presenta la
funcionalidad mediante la cual posibilita la conexión con el modulo SensorViewer
vía Internet para mostrar en pantalla los datos de todos los sensores en tiempo real.
2.2.5
SensorViewer
Consiste en un “tabbed pane” con tres pestañas diferentes. En la primera de ellas, en
la parte superior izquierda aparece una lista desplegable con todos los tipos de sensor
disponibles. Una vez seleccionado uno, en la parte derecha aparecen todos los
sensores disponibles en forma de botón. El borde de cada botón será de color rojo si el
sensor esta seleccionado para su visualización o negro en caso contrario, cambiando
de un estado al otro mediante un simple cliqueo del mismo. En el centro de la pantalla
aparece una figura con la evolución temporal de los valores de los sensores
seleccionados, cada uno con un color y leyenda diferente.
3 Conclusiones
Debido a la rápida evolución de las tecnologías de comunicación, control y sensado,
es común (y lo será mas en un futuro) la coexistencia de diferentes tipos de tecnología
en un mismo edificio. Mediante este trabajo se ha podido demostrar la posibilidad de
integración de tecnologías trabajando sobre medios tan diferentes como son la fibra
óptica, el cableado convencional y el canal radio.
4 Referencias
1. D. Kersey, M. A. Davis, H. J. Patrick, M. LeBlane, K. P. Koo, C. G. Askins, M. A. Putnam,
and E. J. Friebele, “Fiber grating sensors” J. Lightwave. Technolog., Vol. 15, no. 8, pp.
1442–1463, Aug. 1997
2. S. Liu, Y. Yu, J. Zhang X. Chen, “Real-Time monitoring sensor system for Fiber Bragg
Grating array”, IEEE Photonics Technology letters, Vol. 19, no.19, 1493-1495, Oct. 2007.
3. J.A. Nazabal, G. Vargas, R. Hernández, C. Fernández-Valdivielso, F. Falcone, M. LópezAmo. “Integración de sensores de fibra óptica en una red KNX y su monitorización remota”.
KNX International Forum, Madrid, 2010.
4. https://www.auto.tuwien.ac.at/a-lab/calimero.html
20
I Encuentro de Investigadores en Infraestructuras Inteligentes
AMBÚ: ARQUITECTURA DE SERVICIOS DE
SUPERCOMPUTACIÓN EN LA NUBE *
Javier Diego1,2, Daniel Molina1, Miguel Ortega2, Alvaro García2
[email protected], [email protected], [email protected],
[email protected]
2
1
Gesfor, Avenida de Manoteras 32, Madrid. www.gesfor.es
Escuela Técnica Superior de Ingenieros Industriales. Universidad Politécnica de Madrid
Resumen. El proyecto AMBÚ es una solución novedosa de ejecución de
problemas de optimización de recursos, bajo arquitecturas abiertas (Internet),
concebido sobre el paradigma de computación en la nube, basado en
arquitecturas informáticas del futuro. El sistema permite aislar al cliente de la
complejidad de la resolución de los problemas de optimización, mediante
plataformas hardware compartidas, y a bajo coste.
Palabras clave: Cloud computing, procesadores multi-core, tarjetas gráficas
NVIDIA, Cuda, optimización de recursos, programación lineal,
metaheurísticas.
1 Introducción
El principal motivo que justifica la realización de este proyecto, viene dado por la
necesidad de mejorar la productividad de las empresas industriales, en un mundo
empresarial tan competitivo como el actual, y especialmente en la coyuntura
económica que atravesamos. La vía de mejora de productividad que proponemos en
este proyecto es la optimización en la asignación de los recursos.
Los problemas de asignación de recursos de los sectores industrial, productivo y
logístico presentan una gran complejidad de resolución debido a lo que se conoce
como crecimiento exponencial de soluciones. Esto significa, que a medida que crece
el tamaño del problema, el número de posibles soluciones al problema crece de forma
exponencial, de forma que incluso para problemas pequeño tamaño existe un número
tan elevado de posibles soluciones que es imposible calcularlas todas. Resolver un
problema de optimización en la asignación de recursos consiste en encontrar la mejor
solución, de entre las prácticamente infinitas soluciones posibles.
*
Este proyecto está apoyado por el Ministerio de Industria, Turismo y Comercio, en la
convocatoria de Acción Estratégica de Telecomunicaciones y Sociedad de la Información,
Subprograma: Avanza Competitividad I+D+I. Número de expediente: TSI-020100-2010962.
21
I Encuentro de Investigadores en Infraestructuras Inteligentes
Por otro lado, una correcta asignación de los recursos es una tarea vital para la
empresa, ya que incide directamente en la cuenta de resultados de la empresa, en su
eficiencia, y en su rentabilidad.
La resolución de problemas de optimización de recursos requiere de una gran
capacidad de cálculo computacional, y de la aplicación de técnicas matemáticas muy
especializadas. En este punto, AMBÚ utiliza las plataformas informáticas del futuro,
de reciente aparición. Hablamos de los procesadores multi-núcleo y de las tarjetas
gráficas, capaces de ejecutar algoritmos de cálculo a una gran velocidad.
Por otro lado, recientemente ha aparecido el concepto de computación en nube,
cloud computing, que es un nuevo paradigma de la computación para la prestación de
servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de
servicios estandarizados y responder a las necesidades del negocio, de forma flexible
y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando
únicamente por el consumo efectuado.
El proyecto AMBÚ unifica bajo un único servicio todas las tecnologías
mencionadas anteriormente, y proporciona un punto de entrada para resolver
problemas como planificación de producción, rutas de distribución de mercancías,
asignación de flotas, turnos de personal, mediante Internet, a bajo coste, aislando al
cliente del uso e integración de tecnologías hardware, software o matemáticas.
El presente artículo está organizado de la siguiente forma: primero se exponen las
diversas tecnologías que se utilizan en el proyecto, y finalmente, se ofrece una visión
del sistema que se presenta.
2 Computación en nube
Buyya [1] ofrece una definición de consenso: "El Cloud es un tipo de sistema
paralelo y distribuido que consiste en un conjunto de computadores virtuales
conectados que se mantienen dinámicamente y que se presenta como uno o mas
recursos unificados, basándose en acuerdos de niveles de servicio establecidos por
negociación entre el proveedor de servicios y los consumidores".
Cloud Computing puede ofrecer diferentes servicios de TI, que se agrupan según el
nivel de abstracción que suponen sobre los recursos subyacentes. En concreto, existe
SaaS (software as a service), donde las aplicaciones y servicios se ejecutan en la nube,
no en la máquina del cliente. Para este cliente, es totalmente transparente la manera en
que se resuelven sus solicitudes, así como los recursos utilizados.
Los clientes del Cloud Computing no tienen que preocuparse en comprar, gestionar
y mantener los recursos que utilizan. Para los propietarios de la nube, este modelo
permite gestionar la infraestructura de forma transparente a los clientes y servicios,
escalando y distribuyendo recursos bajo demanda.
El proyecto AMBÚ encaja completamente en la definición de computación en
nube, y es un sistema SaaS, ya que el cliente hace peticiones de servicios de
optimización de recursos, sin preocuparse de la infraestructura y las tecnologías que
se empleen en la resolución de su instancia de problema.
22
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Arquitecturas informáticas del futuro
Los procesadores multi-core representan una tecnología relativamente reciente, que
se implanta en los ordenadores actuales, y que ofrece mayor rendimiento de ejecución
gracias a la inclusión de varios núcleos en cada procesador, lo que posibilita la
programación en paralelo de tareas. La era de la programación en serie ha terminado,
Cormen [2]. Los sistemas multi-core han llegado; los modelos de programación
paralela son necesarios para crear programas que los exploten adecuadamente. Los
desarrolladores de software no pueden seguir confiando en el aumento de la velocidad
de reloj de los procesadores para incrementar la velocidad de ejecución de sus
aplicaciones. Al contrario, para tomar ventaja competitiva, los desarrolladores deben
diseñar sus aplicaciones para ser ejecutadas en un entorno de múltiples hilos de
trabajo.
Las tarjetas NVIDIA Tesla representan la primera unidad de procesamiento gráfico
desarrollada para la resolución de problemas de propósito general; ya que, a
diferencia del resto de las tarjetas gráficas, no cuentan con salida de vídeo y han sido
diseñadas específicamente para la resolución de problemas de cálculo masivo. Los
últimos modelos de tarjetas Tesla tienen una gran capacidad de paralelización, gracias
a sus 240 núcleos; y ofrecen una capacidad de cálculo de un Teraflop.
Una de las cuestiones más interesantes referentes a este tipo de tarjetas es que
NVIDIA ha desarrollado una API de programación, conocida como CUDA (Compute
Unified Device Architecture), que permite desarrollar aplicaciones que exploten esta
potencia de una manera sencilla. CUDA es una extensión del lenguaje de
programación C que permite especificar que ciertas funciones del lenguaje sean
procesadas en las tarjetas gráficas. Esto permite que las aplicaciones en C puedan
beneficiarse de la capacidad de procesamiento en paralelo de estas tarjetas, a la vez
que usan el procesamiento habitual de las CPUs comunes cuando éste es necesario.
En suma, la arquitectura NVIDIA + CUDA representa un avance significativo en
las posibilidades computacionales actuales, permitiendo la adaptación de problemas
habituales a esta nueva arquitectura y proporcionando un ahorro muy significativo en
los tiempos necesarios para su resolución.
En el desarrollo del proyecto AMBÚ se están adaptando las técnicas de resolución
de problemas de optimización de recursos a arquitecturas híbridas con tarjetas
gráficas compuestas por núcleos de procesamiento paralelo que trabajarán en
colaboración con los procesadores multi-núcleo, en lo que se consideran las
arquitecturas informáticas del futuro, Dongarra [3].
4 AMBÚ
El proyecto que se presenta es un centro de cálculo de alto rendimiento accesible
desde Internet, para la resolución de problemas de optimización de recursos mediante
hardware especializado y software especialmente diseñado pare ese hardware. La
arquitectura de alto nivel del sistema se presenta en la Figura 1
El acceso al sistema de podrá hacer mediante cualquier red (una intranet o
Internet). Las peticiones de resolución de problemas de optimización las recibe en
23
I Encuentro de Investigadores en Infraestructuras Inteligentes
primera instancia un sistema de E/S que valida al cliente que envía la petición, analiza
la representación del problema para asegurar que es correcta y cumple con la
estructura definida para el tipo de problema. Si todo es correcto, el sistema E/S
registra la solicitud de problema en un artefacto denominado enrutador.
El enrutador lee el problema y estima el esfuerzo computacional necesario para
resolverlo, en base al conocimiento adquirido durante la resolución de problemas
previos. En función de esa complejidad, de la infraestructura de la que dispone, y los
recursos disponibles en cada momento, asigna un servidor para la resolución del
problema, o lo deja en cola. Esta asignación es un auténtico problema de optimización
de recursos: se debe encontrar la asignación de hardware que haga que el problema se
resuelva en el menor tiempo posible, en función de la disponibilidad de recursos
hardware, de forma que se disponga de una arquitectura bien dimensionada, y de bajo
coste que haga viable el sistema AMBÚ. Esto significa que un mismo tipo de
problema a veces se resolverá en procesadores multi-núcleo, otra vez se puede
ejecutar en tarjetas gráficas, y otras, en arquitecturas mixtas, en función de la
disponibilidad de recursos hardware del momento. Cuando termina la ejecución de un
problema, lo registra en el sistema de E/S para que devuelva el resultado al cliente
que lo envió, y comprueba si hay procesos pendientes de ejecución en la cola de
espera, y vuelve a asignar los recursos hardware.
Los servidores adscritos a esta red disponen de procesadores multi-núcleo, y de
una serie de tarjetas gráficas en paralelo, para la resolución de los problemas de
optimización de recursos.
Figura 1.- Arquitectura del sistema AMBÚ
5 Referencias
1. Buyya, R. Cloud Computing – The Next Revolution int Information Technology.
International Conference on Internet Computing. 2010: 6-10.
2. Cormen, H.T., Leiserson, R.L., Rivest, R.L. Introduction to algorithms. The MIT
Presss. 2007.
3. Dongarra, J. www.nvida.com. Tenesse University.
24
I Encuentro de Investigadores en Infraestructuras Inteligentes
Diseño inteligente de parques eólicos mediante nuevos
modelos de computación heurística
B. Saavedra-Moreno1, A. Paniagua-Tineo1, A. Portilla-Figueras1, S. Salcedo-Sanz1
1
Departamento de Teoría de la Señal y Comunicaciones, Universidad de Alcalá
[email protected]
Abstract. En este artículo se presenta un heurístico para posicionamiento
óptimo de turbinas en parques eólicos. Se considera un modelo realista para el
parque éolico, que incluye orografía, forma del parque, simulación de velocidad
y dirección de viento y costes de instalación, conexión y obra civil para
conectar turbinas de viento. Diversos experimentos realizados muestran que la
aproximación propuesta obtiene soluciones que maximizan la producción de
potencia y tienen en cuenta las diferentes restricciones del problema.
Keywords: parques
aerogeneradores
eólicos,
heurísticos,
posicionamiento
óptimo
de
1 Introducción
La energía eólica es una de las fuentes de energía renovable más prometedoras del
mundo. Como ejemplo, la potencia eólica instalada en el mundo a finales de 2009
alcanza un total de 157 GW, de los cuales alrededor de 76 GW corresponden a
Europa, y de ellos 19 GW sólo a España. Por tanto, la energía eólica representa un
12% de la energía total consumida en países como EEUU, Alemania o España, y se
espera que este porcentaje crezca hasta un 20% para 2025.
La mayoría de la potencia eólica consumida en el mundo es generada en
instalaciones denominadas parques eólicos. El diseño automático de parques eólicos
es un tema que está ganando popularidad entre los diseñadores de parques eólicos y
los ingenieros en los últimos años. Hay un número creciente de artículos abordando
este problema, aplicando exitosamente diversas técnicas de inteligencia
computacional a este problema [1-4].
En este artículo se presenta un modelo de optimización de parques eólicos
modificado, que incluye numerosas novedades para tratar de hacer el problema más
próximo a la realidad que las aproximaciones anteriores. Las novedades
fundamentales incluidas son un modelo para la forma del parque eólico, un modelo de
la orografía y la inclusión de un modelo de simulación de velocidad de viento.
Además, presentamos un novedoso algoritmo heurístico para buscar la solución
óptima del problema. Mostraremos que la aproximación propuesta es capaz de
obtener soluciones buenas y viables para el problema, con un balance entre coste
computacional y calidad de la solución obtenida.
25
I Encuentro de Investigadores en Infraestructuras Inteligentes
2 Modelo de optimización propuesto
Esta sección presenta el modelo de optimización asumido en este artículo. Se ha
subdividido la sección en función de los nuevos submodelos incluidos en la
optimización de parques eólicos.
2.1 Modelo de la forma del parque eólico
Las aproximaciones previas de la literatura no tenían en cuenta el problema de la
forma de los parques eólicos. Básicamente, la mayoría de las aproximaciones
consideraban parques eólicos cuadrados divididos en celdas donde se podían
posicionar las turbinas. Está aproximación basada en celdas es interesante pues
introduce una manera de manejar los diferentes puntos donde se puede instalar una
turbina, pero el problema es que no puede modelar de manera realista el diseño de un
parque eólico. En este artículo proponemos una manera fácil de considerar diferentes
formas del parque eólico, manteniendo la idea de las celdas cuadradas para modelar
los posibles puntos en los que localizar una turbina. La idea es simple: sobre un
cuadrado de longitud K×K celdas que sirven de fondo, se define una plantilla binaria
T, también de K×K que describe las zonas permitidas para instalar turbinas, de tal
manera que Tij = 1 supone que el punto está en el área del parque eólico, mientras que
Tij = 0 supone que el punto está fuera del parque eólico. De este modo, podemos
considerar casi cualquier forma del parque eólico.
2.2 Estela, modelo de orografía y simulación de velocidad de viento
En este artículo consideramos como modelo de estela el introducido en [1].
Aunque es un modelo simple, funciona realmente bien para simular la estela real de
una turbina, obteniendo un buen balance entre la complejidad del modelo y el
resultado final. Además, hemos introducido otros puntos para hacer el problema más
realista. Primeramente, hay que tener en cuenta que ninguna de las aproximaciones
previas del problema considera la orografía del parque o las variaciones en la
velocidad de viento. La existencia de colinas en el parque hace que la velocidad del
viento sea distinta en la cima de la colina que en el correspondiente valle. Para tener
en cuenta este punto tan importante introducimos el concepto de multiplicadores de
viento, de manera que un punto de mayor altitud estará caracterizado por un
multiplicador mayor.
La velocidad del viento en un punto dado del parque eólico se calcula del siguiente
modo en nuestro modelo: consideramos una rosa de los vientos dada para un parque
eólico y, para cada dirección de la rosa, un conjunto de simulaciones de viento de
Monte Carlo de t años usando una función de densidad de probabilidad Weibull para
el módulo de la velocidad de viento. El resultado de la simulación de Monte Carlo se
pondera con la correspondiente probabilidad obtenida de la rosa de los vientos y por
el multiplicador de viento, para incluir la orografía en cada punto. Con una curva
estándar de potencia para la turbina considerada obtenemos la potencia producida
asociada a la velocidad del viento en una turbina.
26
I Encuentro de Investigadores en Infraestructuras Inteligentes
2.3 Modelo de costes
El modelo de coste usado en este trabajo está basado en un modelo simplificado de
inversiones/beneficios. Específicamente, nuestro modelo incluye el coste de
instalación de las turbinas (Ci) y los costes de conexión y construcción de carreteras
(Cijc), modelado como la distancia euclídea entre las turbinas i y j, además del
beneficio obtenido por la energía producida en t años (B t). Todos los parámetros están
medidos en euros. La función objetivo a maximizar es:
.
(1)
donde N es el número de turbinas instaladas en el parque eólico. Téngase en cuenta
que no consideramos costes alternativos como costes de operación (OPEX) en la
función objetivo.
3 Algoritmo propuesto
El heurístico propuesto puede considerarse una aproximación greedy, o heurístico
constructivo, basado en la explotación de los mejores puntos en términos de la
función objetivo φ. El heurístico sigue una estructura en bucle hasta completar el
correcto posicionamiento de N turbinas. Los pasos a seguir en el heurístico propuesto
son los siguientes:
1.
2.
3.
4.
Localizar el punto con el viento máximo y posicionar la turbina.
Corregir la velocidad del viento en los puntos vecinos teniendo en cuenta el
modelo de la estela y la rosa de los vientos considerada.
Localizar el punto del parque eólico que maximice la ecuación 1.
Si ya se han instalado N turbinas, se ha finalizado. En caso contrario, ir al
paso 2.
4 Resultados
Se han realizado un número de experimentos con los siguientes parámetros: los
parámetros de la distribución Weibull usados en el modelado de la velocidad de
viento son λ = 10 y β= 1.6. Se considera el posicionamiento de N = 20 turbinas. El
coste de cada turbina se estima en Ci=106 euros. Otros parámetros de la simulación
son los siguientes: se considera una celda base de 10x10 m con K=500, D = 90m.
Además, se estima un coste de conexión de las turbinas y construcción de carreteras
Cijc de 105 Euros/km. Para el cálculo del beneficio estimado Bt, hemos considerado un
precio de 75 Euros/MW-h, 3000 horas efectivas/año y un periodo de t = 10 años de
simulación. La Figura 1 muestra el resultado de aplicar el heurístico propuesto a la
simulación de un parque eólico, incluyendo multiplicadores de viento obtenidos
27
I Encuentro de Investigadores en Infraestructuras Inteligentes
aleatoriamente. Se puede observar que la solución obtenida mediante la ejecución del
algoritmo propuesto cumple todos los requisitos: el posicionamiento de las turbinas se
encuentra en el interior del parque eólico y se guarda la distancia de seguridad entre
turbinas. En la subfigura de la derecha se muestra el beneficio diferencial de pasar de
i a i+1 aerogeneradores. Se puede apreciar como siempre se obtienen beneficios,
independientemente del número de aerogeneradores. Además se aprecia cómo el
beneficio decrece cuando la distancia entre aerogeneradores asignados es grande,
como en el caso de 8 a 9 aerogeneradores, o de 12 a 13.
Figura 1. Posición óptima de aerogeneradores y beneficio diferencial en 10 años usando el heurístico
5 Conclusiones
En este artículo hemos presentado un algoritmo heurístico para solucionar el
problema del posicionamiento óptimo de turbinas en un parque eólico. También se ha
propuesto un novedoso modelo de optimización, que incluye numerosos aspectos
como la forma del parque eólico, la orografía y los diferentes costes de la función
objetivo.
Referencias
1. S. A. Grady, M. Y. Hussaini and M. M. Abdullah, “Placement of wind turbines using genetic
algorithms,” Renewable Energy, vol. 30, no. 2, pp. 259-270, 2005.
2. U. A. Ozturk and B. A. Norman, “Heuristic methods for wind energy conversion system
positioning," Electric Power Systems Research, vol. 70, no. 3, pp. 179-185,2004.
3. M. A. Lackner and C. N. Elkinton, “An analytical framework for offshore wind farm layout
optimization," Wind Engineering, vol. 31, no. 1, pp. 17-31, 2007.
4. G. Marmidis, S. Lazarou and E. Pyrgioti, “Optimal placement of wind turbines in a wind
park using Monte Carlo simulation," Renewable Energy, vol. 33, no. 7, pp. 1455-1460,
2008.
28
I Encuentro de Investigadores en Infraestructuras Inteligentes
HESPERIA: Plataforma de soporte a la vigilancia de
grandes infraestructuras y espacios públicos
Félix J. Villanueva1, Miguel A. Martinez1, Cleto Martin1, David Villa1, Maria J.
Santofimia1, Francisco Moya1, Juan Carlos López1
1
Grupo Arco, Escuela Superior de Informática, Ciudad Real,
Universidad de Castilla-La Mancha
{felix.villanueva, miguela.martinez, cleto.martin, david.villa, mariajose.santofimia,
francisco.moya, juancarlos.lopez}@uclm.es
Resumen. El papel de las tecnologías de la información y las comunicaciones
ha incrementado en los últimos años su importancia como soporte a la
seguridad de grandes infraestructuras y espacios públicos. En este artículo se
muestra una plataforma tecnológica (HW y SW) orientada a soportar las nuevas
necesidades que surgen en despliegues para este tipo aplicaciones. Integración
de dispositivos y tecnologías heterogéneos, facilidad de despliegue y
configuración de entornos distribuidos, fiabilidad y tolerancia a fallos, etc. son
ejemplos de las características que esta plataforma proporciona a los nuevos
servicios desarrollados en este ámbito. Su objetivo final es ofrecer sistemas
dotados de inteligencia capaces de anticiparse a los problemas de seguridad que
puedan surgir en grandes infraestructuras.
Keywords: Seguridad en infraestructuras. Sistema distribuido. Integración de
dispositivos y servicios.
1 Introducción
En un mundo globalizado, las grandes infraestructuras (aeropuertos, centrales
eléctricas, túneles, red de metro, etc.) se han convertido en puntos críticos para la
seguridad de empresas y estados. La tecnología siempre ha estado en la mente de los
responsables de la seguridad de dichos espacios. En primera instancia, los servicios de
seguridad suponían, básicamente, la transmisión de la señal de vídeo de múltiples
cámaras a un centro de control donde los operadores vigilaban el entorno. Con la era
digital, esas cámaras pasaron a ser digitales y los flujos de video empiezan a poder
analizarse con el objeto de detectar eventos anómalos, realizar seguimiento de
individuos, etc. Estos últimos algoritmos requieren de enormes recursos de
computación. La tendencia actual pasa por entornos multi-sensoriales (audio, video,
presencia, vibraciones, etc.) que analizan los flujos de datos de forma autónoma [1] y
por lo tanto:
• Obligan a integrar más dispositivos de forma transparente a los centros de
control.
29
I Encuentro de Investigadores en Infraestructuras Inteligentes
•
Requieren de enormes capacidades de cómputo para analizar los flujos de datos y
convertirlos en información útil (análisis de flujos de video, aplicaciones de
realidad aumentada, etc.).
• Potencian el entorno distribuido de este tipo de sistemas al delegar servicios
(almacenamiento, análisis, etc.) a empresas externas accedidas a través de redes
no seguras (p.e. Internet).
Con independencia de las aplicaciones que doten de inteligencia a la
infraestructura de vigilancia, cada vez se hace más necesaria una plataforma
tecnológica que integre HW y SW y que soporte los servicios básicos imprescindibles
para hacer viable servicios más complejos y de valor añadido en el ámbito de la
seguridad.
2. Plataformas de soporte a la seguridad
Atendiendo a los requerimientos mencionados, la plataforma HESPERIA ha sido
diseñada conforme a los elementos básicos mostrados en la Figura 1. De estos
componentes, el elemento central es el middleware orientado a objetos distribuidos
(MDOO), que es el encargado de proporcionar transparencia de localización a los
servicios distribuidos en el entorno de forma eficiente (utilización de protocolos
binarios), flexible (soporte a una enorme variedad de lenguajes de programación y
sistemas operativos) y con soporte a servicios comunes (gestión de canales de
eventos, gestión de actualizaciones, etc.).
Ilustración 1: Visión Global de la Plataforma HESPERIA
Sobre este middleware se han implementado servicios básicos tales como:
• Descubrimiento de servicios: La escalabilidad requerida en este tipo de
plataformas hace necesaria la creación de un sistema de descubrimiento de
servicios denominado ASDF (Abstract Service Discovery Framework) de cara a
minimizar los procedimientos de configuración [2].
30
I Encuentro de Investigadores en Infraestructuras Inteligentes
•
•
•
Despliegue e integración de servicios: La integración de los elementos de la
arquitectura (tanto HW como SW) se ha llevado a sus últimas consecuencias
permitiendo que cualquier elemento pueda interoperar con los demás de forma
transparente. Así, tanto posibles componentes hardware (p.e. sistemas de
computación de altas prestaciones utilizados para el procesamiento de imagen),
como otros dispositivos de bajo coste y escasos recursos (sensores y actuadores),
incorporan mecanismos que implementan el protocolo común del MDOO. En el
caso de los sensores, sólo será necesario establecer pasarelas genéricas entre la
tecnología propia de los mismos (p.e. 802.15.4) y la tecnología troncal (p.e.
Ethernet).
Fiabilidad y tolerancia a fallos: En este campo son dos las aportaciones de la
presente plataforma. Por un lado, un servicio de bootstrap que permite
seleccionar, por cada dominio definido, una máquina que realiza las funciones de
Master (alojando servicios básicos), así como nodos de respaldo de dicho Master.
El servicio de bootstrap permite mantener un número de nodos (a configurar)
como réplicas del Master de forma que ante una caída del nodo Master una de las
réplicas asume su rol. La otra aportación constituye la aplicación de motores de
inferencia basados en el sentido común (Common Sense Reasoning Engines) a la
composición de servicios automático de forma que, ante la caída de un
dispositivo/servicio de vigilancia (sensor, cámara, micrófono, servicio de
presencia, etc.), bien sea por un fallo técnico o por un ataque, el middleware trata
de crear un servicio con funcionalidad equivalente entre los dispositivos y
servicios existentes en el entorno [3].
Información geográfica: Siguiendo el estándar Mobile Location Protocol (MLP)
de la Open Mobile Alliance [4] se han desarrollado una serie de interfaces y
servicios que homogenizan la información relativa al posicionamiento de
dispositivos y personas.
Como se ha comentado, sensores y actuadores resultan elementos clave en una
arquitectura que soporte servicios de seguridad. En este sentido, su integración y
gestión de forma transparente y homogénea con la del resto de elementos hardware y
software es una de las principales aportaciones de la plataforma HESPERIA. Sobre
estos elementos se ha implementado de forma óptima el mismo protocolo utilizado
por el resto de la infraestructura y que queda definido por el MDOO escogido para la
implementación. Asimismo, y para minimizar los tiempos de desarrollo, se ha
realizado una toolchain completa que soporta la implementación de forma casi
automática [5].
En el ámbito de audio y video, la plataforma presentada apuesta de nuevo por los
estándares implementando el perfil AVStreams [6] definido por el Object
Management Group (OMG). También se extiende su funcionalidad a dispositivos
empotrados (p.e. PDAs) con el objeto de proporcionar información útil al personal de
seguridad. La herramienta Twinpanel nos permite monitorizar múltiples cámaras
(Figura 2, izqda.) con la particularidad de que los flujos siguen el estándar
AVStreams, y los elementos que intervienen (desde las cámaras hasta los sensores y
actuadores) se han anunciado utilizando ASDF y pueden ser controlados de forma
individual (Figura 2, dcha.).
31
I Encuentro de Investigadores en Infraestructuras Inteligentes
Ilustración 2: Herramienta de vigilancia activa Twinpanel
Finalmente, en HESPERIA se hace uso de la programación orientada a eventos y la
federación de canales de eventos como mecanismo óptimo para el tratamiento y
gestión de la información que fluye por la plataforma.
Conclusiones
Las nuevas aplicaciones que tratan de aportar inteligencia en la vigilancia de
infraestructuras necesitarán de una plataforma de soporte para su instalación en el
mundo real. En HESPERIA se ha trabajado en estudiar estas necesidades y desarrollar
servicios y herramientas que simplifiquen tanto su desarrollo, como su despliegue y
mantenimiento.
La plataforma presentada ha sido utilizada en el proyecto CENIT HESPERIA
integrando y soportando tecnologías y servicios pertenecientes a múltiples disciplinas
y desarrolladas por terceras partes (realidad aumentada, visualización, toma de
decisiones, etc.).
Referencias
1.
2.
3.
4.
5.
6.
T. D. Räty: Survey on Contemporary Remote Surveillance Systems for Public Safety.
IEEE Trans. on Systems, Man, and, Cybernetics, Vol. 40, Nº. 5, pp. 493-515 (2010)
F.J. Villanueva, D. Villa, M.J. Santofimia, F. Moya, J.C López: A Framework for
Advanced Home Service Design and Management. IEEE Trans. on consumer
electronics. Vol. 55, Nº 3, pp. 1246—1253 (2009)
M.J. Santofimia, F. Moya, F.J. Villanueva, D. Villa, J.C. López: Intelligent Agents
for Automatic Service Composition in Ambient Intelligence. Book on Web
Intelligence and Intelligent Agents. InTech, pp. 411--428 (2010)
Open Mobile Alliance. Mobile Location Protocol. Ver. 3.1 (2004)
F. Moya, D. Villa, F.J. Villanueva, F. Rincón, J. Barba, J.C. López: Embedding
Standard Distributed Object-Oriented Middlewares in Wireless Sensor Networks.
Wireless Communications and Mobile Computing. Vol. 3, Nº 3, pp. 335-345 (2009)
Object Management Group. Audio/Video Stream Specification. Ver. 1.0 (2000)
32
I Encuentro de Investigadores en Infraestructuras Inteligentes
E-labs:
Modelo de Gestión del Conocimiento
Miriam Martínez Muñoz1,
1
Departamento de Ciencias de la Computación,
Universidad de Alcalá de Henares, España
{[email protected]}
Abstract.
En disciplinas técnicas y científicas la realización de experimentos con
plantas reales es fundamental para consolidar los conceptos adquiridos en las aulas
teóricas. Sin embargo, debido a diferentes razones los laboratorios reales no siempre
están disponibles, lo cual impone restricciones en el aprendizaje. Afortunadamente, las
nuevas tecnologías basadas en Internet, pueden ser utilizadas para mejorar la
accesibilidad a los experimentos en forma de laboratorios remotos y virtuales. Así se
conseguirán simultáneamente dos objetivos didácticos: (1) Realizar prácticas
relacionadas con la asignatura ampliando la disponibilidad de los laboratorios y (2)
formar a los alumnos en el uso de las TICs.
Keywords: Laboratorio virtual y remoto, TICs, enseñanza, experimentación.
1. Introducción
La educación en todas las áreas del conocimiento se ha beneficiado de los
desarrollos tecnológicos con la creación de nuevos espacios en los cuales los
profesores y los alumnos pueden tener nuevas formas de visualización de los
conceptos objetos de estudio [1]. El espacio que se crea con la ayuda de las Aulas y
Laboratorios permite a los alumnos desarrollar las competencias educativas propias
de su etapa. La enseñanza, dentro del ámbito de la Ciencia, la Tecnología y Medio
Ambiente requiere etapas de formación práctica que ayuden a consolidar el
aprendizaje teórico.
Los elementos necesarios para abordar la realización de actividades prácticas son
los laboratorios virtuales (LV) y remotos (LR), accesibles a través de Intranet,
Internet o ambientes computacionales, donde el alumno realiza las practicas de una
forma lo más similar posible a como si estuviese en las dependencias del laboratorio
tradicional (LT), simulando e interactuando con instrumentos virtuales [1] [2].
En el laboratorio tradicional (LT), los recursos en personas y espacios son
restringidos, debido a su masificación y a problemas presupuestarios; se requiere la
presencia física del estudiante y la supervisión del profesor. Una solución a estos
problemas la encontramos en la aplicación de los avances tecnológicos a la docencia e
investigación universitaria y, en concreto, el uso de laboratorios virtuales (LV) y
remotos (LR) [1] [3]. El LV acerca y facilita la realización de experiencias a un
mayor número de alumnos, aunque alumno y laboratorio no coincidan en el espacio.
Permite simular fenómenos y modelos físicos, conceptos abstractos, mundos
33
I Encuentro de Investigadores en Infraestructuras Inteligentes
hipotéticos, controlar la escala de tiempo, etc., ocultando el modelo matemático y
mostrando el fenómeno simulado de forma interactiva. La creciente complejidad de
las actividades en el LT y el desarrollo de las TIC y la Computación, han hecho que
los LV evolucionen, transformándose en laboratorios remotos (LR), donde el alumno
utiliza y controla los recursos del laboratorio, a través de una red local (Intranet) o
bien a través de Internet [4] [5].
2. Objetivos del Proyecto
Los objetivos principales son:
•
Aprovechar los recursos, tanto humanos como materiales en los LT. Al
integrar, en un único ordenador, los instrumentos necesarios para la
ejecución de las prácticas, el ahorro en material de laboratorio es
considerable y no utiliza la simulación más que para la comparación de los
resultados.
•
Ampliar la oferta horaria del alumno en su formación.
•
Disponer, en cualquier momento, de las mismas versiones del software, dado
que éste se actualiza en el centro servidor.
•
Ahorrar tiempo, el número de horas de que se dispone durante un curso para
desarrollar un temario pocas veces permite realizar las correspondientes
prácticas en el laboratorio.
•
Aumentar el volumen de estudiantes que se puede manejar.
•
Economizar, los centros educativos que participen en el acuerdo no tendrían
que adquirir material e instrumentos para sus propios laboratorios.
•
Los datos obtenidos por el sistema son datos en tiempo real, sujetos a las
causas de error que se tendrían en una práctica presencial en el laboratorio,
en ningún momento se obtienen datos simulados.
El objetivo final es conseguir acuerdos interinstitucionales, ya que el sistema no solo
es útil para las Universidades sino que aplica también para estudiantes de educación
secundaria que cursan los grados superiores y para empresas que necesiten una
formación práctica de sus empleados.
3. Fundamentos
El LR es un sistema basado en instrumentación real de laboratorio (no prácticas
simuladas), que permite al estudiante realizar actividades prácticas de forma local o
34
I Encuentro de Investigadores en Infraestructuras Inteligentes
remota, transfiriendo la información entre el proceso y el estudiante de manera uni o
bidireccional. El alumno utiliza y controla los recursos disponibles en el laboratorio, a
través de estaciones de trabajo de una red local (Intranet) o bien a través de Internet.
4. Metodología
El funcionamiento básico del sistema permite:
•
•
Manipular el equipo de forma local.
A través de conexiones remotas se permite el acceso de forma monousuaria a los
diversos usuarios.
Al laboratorio se podrá acceder como Supervisor o Profesor y como Alumno, teniendo
cada perfil, distintas opciones y permisos.
Las interconexiones básicas se realizan mediante:
Modelo LabVIEW/Java/Java; siendo los módulos funcionales:
LabVIEW
•
Acceso al dispositivo
•
Suministro de datos
•
Proceso de Control (Sistema de Recubrimientos)
Java
•
Distribución de los datos
•
Gestiona las conexiones
•
Manejo & Monitoreo
•
Interpreta comandos (Sistema de Recubrimientos)
La estructura de este sistema estaría compuesta por la combinación de Apache + MySql +
PHP; debido a las compatibilidades del software y su posibilidad de migración, sin
complicación alguna, a servidores tipo Unix/Linux, más adecuados para el desarrollo de
ambientes multiusuario, multitarea y multiproceso. El servidor Apache provee el sitio
Web, MySql es el motor para las bases de datos del sistema de información y la
herramienta de análisis, y PHP es usado para la creación de páginas dinámicas.
El sistema se completará con un gestor de reservas, un gestor de educación (Dokeos)
y un gestor de contenidos (Joomla).
En la Figura 1 se muestra el esquema del Laboratorio Virtual Remoto.
35
I Encuentro de Investigadores en Infraestructuras Inteligentes
Referencias
1.
Sanchéz, J.; Dormido, S.; Morilla, F. “A Java/MatLab-Based Environment for
Remote Control System Laboratories: Illustrated with an Inverted Pendulum”, IEEE
Transactions on Education, vol. 47, no. 3, August, 2004 pp. 321-329.
2.
Guzman, J. L.; Berenguel, M.; Rodríguez, F.; Dormido, S. “Web-Based Remote
Control Laboratory Using a Greenhouse Scale Model” Computer Applications in
Engineering Education, 13, 2005, pp. 111-124
3.
Jugo, J., Sagastebeitia, I., Etxebarria, V. “Laboratorio de control en tiempo real via
Internet usando herramientas open source”, V Jornadas de Enseñanza via
Internet/Web de la Ingeniería de Sistemas y Automática, EIWISA’07, Zaragoza,
2007
4.
Franco, A. “Multimedia Materials for the Interactive Physics Course on the
Internet”, 2008 International Conference on Engineering and Mathematics,
ENMA08, Bilbao, Julio 2008
5.
Esquembre, F. Creación de Simulaciones Interactivas en Java. Aplicación a la
Enseñanza de la Física. Pearson Prentice Hall Educación, 2005
36
I Encuentro de Investigadores en Infraestructuras Inteligentes
Inteligencia Artificial aplicada a la mejora de la
Calidad Empresarial
Jose Amelio Medina1, Carmen de Pablos2, Lourdes Jimenez1, Jorge Peñas1,
1
Dpto de Ciencias de la Computacion -Universidad de Alcalá - Campus Universitario,
28871- Alcala de Henares - Madrid
Dept. de Economía de la Empresa - Universidad de Rey Juan Carlos - Campus de Vicalvaro
28032 Madrid
{josea.medina, lou.jimenez, jorge.penasb}@uah.es
{Carmen.depablos}@urjc.es
Resumen. La pérdida de conocimiento que se produce en las organizaciones
cuando causa baja un trabajador, genera pérdidas económicas difícilmente
reversibles en muchos casos. A lo largo de este trabajo, plantearemos una
propuesta de aplicación de un sistema experto a la mejora continua empresarial
para un sistema de gestión de la calidad según la norma 9001:2008 [1]. La
aplicación que proponemos intenta mitigar los problemas producidos ante las
circunstancias anteriormente descritas.
Palabras Clave: calidad, gestión de la calidad, gestión del conocimiento,
inteligencia artificial.
1 Introducción
En un mercado cada vez más globalizado, con mayor competencia, las empresas
persiguen mejoras en su gestión a través de la modificación de los métodos y
procesos. De esta forma pueden conseguir abaratar costes en las distintos áreas, como
son: producción, compras, comercial, etc. y una mayor eficiencia y eficacia en los
procesos. Estas mejoras demandan del talento de diferentes perfiles de trabajadores en
las empresas. Cuando estos trabajadores abandonan su puesto de trabajo,
independientemente del motivo, se puede producir una gran pérdida económica y de
imagen frente al cliente, proveedores, etc.
Aunque las distintas normas de calidad como ISO 9001 (2008) [1], reflejan este
hecho y aconsejan documentar los distintos procesos con sus respectivos
procedimientos, resulta insuficiente ya que, en muchos casos no se realiza
correctamente o simplemente no se realiza, produciéndose por tanto, una acentuación
del problema de la pérdida de conocimiento.
A pesar del esfuerzo que han realizado las Administraciones Públicas por
promocionar prácticas de certificación en las empresas (DOCM 206, DE 07/10/08)
[3], aún son pocas las empresas certificadas con la norma 9001:2008 [1], en torno a
las 69000 empresas en España (Forum Calidad, 2009) sobre la certificación en
España según las normas ISO 9001, 14001 y EMAS [4].
Del mismo modo se ha producido una motivación y promoción de las tecnologías
de información y comunicación (TIC) en el mundo empresarial, a través del Plan
37
I Encuentro de Investigadores en Infraestructuras Inteligentes
Avanza. La incorporación de soluciones de negocio basadas en las TIC puede
contribuir a la competitividad y a la mejora de la productividad [7]. Aun así, el uso de
las TIC en las empresas españolas sigue siendo muy bajo como se indica en el
informe sobre “Las tecnologías de la información y las comunicaciones en la empresa
española 2009” [5] en el informe “ePyme 2008 [6].
Por lo que acabamos de exponer, y aunque no existen datos al respecto,
consideramos que el uso de inteligencia artificial, y más concretamente el de sistema
experto, es bajo; prácticamente se trata de un valor residual que está ligado al grado
de automatización de procesos a través de Sistemas de Planificación de Recursos
Empresarial (ERP) (Fundetec, 2008) [5].
2. Descripción del problema
La pérdida de conocimiento que se produce en la empresa cuando cesa un
trabajador, ha sido tratada por autores consagrados como Kaplan y Norton (1996) [2].
Existe un amplio consenso en la importancia de esta dimensión para los autores en
este campo [10], [11], [12], [13], [14].
Por otro lado, las organizaciones tienen necesidad de certificarse o al menos de
implantar las normas de calidad. No hay que olvidar que uno de los apartados de la
norma ISO 9001:2008 [1] es la mejora continua, y nosotros sólo podemos mejorar un
sistema de calidad si estamos realizando mediciones de su gestión, como indica
Ishikawa (1989) [8]. Esto supone la necesidad de medir todos los procesos.
La norma ISO 9001:2008 [1] es clara en su punto 8.2. “Seguimiento y medición”
pero más concretamente el apartado 8.2.1 “Satisfacción del cliente”. En ella se indica
que se debe realizar un seguimiento de la satisfacción de cliente con el fin de analizar
los resultados y que permita obtener una realimentación de los datos de entrada.
Para cumplir con los requisitos de esta norma, la inmensa mayoría de las empresas
evalúan la satisfacción de cliente a través de dos formas distintas: a través del envío
de un cuestionario a un grupo de clientes, que posteriormente se analiza, o a través de
un seguimiento de sus pedidos y visitas de los comerciales.
Aunque las dos formas son muy interesantes, a efectos de este trabajo vamos a
centrarnos únicamente en la primera, que es mediante el envío de un cuestionario de
satisfacción de cliente.
Por consiguiente proponemos un prototipo que evalúe la satisfacción de cliente
según la norma ISO 9001:2008 [1].
3. Arquitectura del sistema
Con el desarrollo del prototipo intentamos ofrecer una alternativa al desarrollo e
implantación del prototipo. Para ello hemos adoptado dos puntos de vista, uno desde
el punto interno de acceso a la aplicación, mediante la base de datos de forma local o
en red, y otro desde el punto de vista externo, en el que la conexión se realiza vía web.
Planteamos esta herramienta como un complemento del sistema que habitualmente
38
I Encuentro de Investigadores en Infraestructuras Inteligentes
existe en cualquier empresa, como el ERP y el CRM. Estos sistemas suelen estar
desarrollados en SQL Server como sistema de almacenamiento de datos,
independientemente de cómo sea el interface. De este proceso se pueden obtener
datos como Recursos Internos, Finanzas y de Recursos Humanos, entre otros.
Partiendo de esta premisa y teniendo en cuenta que nuestro objetivo, es analizar la
satisfacción de cliente como indica la norma ISO 9001:2008, en la que se indica que
dicho proceso puede ser realizado mediante el envío y posterior análisis de los
resultados obtenidos, con el fin de poder aplicar acciones de mejora en nuestro
proceso que garanticen una mejora en la satisfacción del cliente produciéndose una
realimentación entre empresa y cliente.
El proceso de envío de cuestionarios se realizará vía correo electrónico o por la
contestación de un cuestionario a través de una página web o por medio de otros
métodos más tradicionales, como el fax.
Se han establecido tres perfiles principalmente, un usuario, mando intermedio; un
directivo y un administrador para conocer en profundidad el acceso a la información.
La información recogida es tratada y almacenada en una base de datos, en nuestro
caso es MySQL. Seguidamente son adaptados y mostrados en pantalla a través de un
cuadro de mando.
Especial importancia adquiere el sistema de representación de la información, que
en esta investigación es un cuadro de mando integral (CMI) ya que, a partir de él, el
personal puede obtener una idea general del grado de satisfacción que tiene el cliente
de la empresa y permite analizar los valores empresa por empresa.
Para el desarrollo del CMI nos hemos inspirado en el cuadro de mando integral
propuesto por Olve at et., (2000) [15] para el aeropuerto de Heathrow.
Para el desarrollo del sistema experto, se ha utilizado el programa CoCoA [16],
que permitirá analizar los datos mediante un prototipo basado en reglas, a partir del
cual se facilitarán las acciones a realizar para cada cliente. Además permitirá detectar
incoherencias en la introducción de los datos.
4. Conclusiones
El sistema que se ha creado, está basado en la mejora y seguimiento de los datos
obtenidos en el apartado de la evaluación de la satisfacción de cliente según la norma
ISO 9001:2008.
El sistema se centra en la optimización de recursos, así como la automatización del
proceso de evaluación de la satisfacción de cliente, facilitando la información a la
dirección para apoyar la toma de decisiones.
El sólo hecho de poder aplicar este sistema a la satisfacción del cliente ha
permitido analizar su extensión al resto de apartados del sistema según norma ISO
9001:2008 que, aunque no se expone en este documento, si permite abrir importantes
líneas de investigación en este campo, mediante la implementación de sistemas
inteligentes que permitan analizar los resultados y favorecer la toma de decisiones de
39
I Encuentro de Investigadores en Infraestructuras Inteligentes
manera acertada. A modo de ejemplo, citaremos aspectos como la evaluación de
proveedores, verificación de pedidos y aceptación de los mismos, etc.
Esta herramienta de gestión permitirá reducir los tiempos de respuesta en las
pymes en las que se implantara y permitiría además disponer de información sobre lo
que opinan los clientes de una manera rápida y en tiempo real, facilitando de este
modo poder corregir de forma rápida cualquier desviación que se pueda producir.
Referencias
1. ISO 9001:2008, Sistemas de gestión de la calidad. Requisitos, AENOR, 2008.
2. Kaplan, R.S. and Norton, D.P., Cuadro de Mando Integral, Gestión 2000 S.A., 1997.
3. Consejería de Industria y Tecnología-JCCM, Orden de 25-09-2008, por la que se
establecen las bases reguladoras de las subvenciones a la competitividad e incentivos a la
inversión empresarial en Castilla-La Mancha, DOCM 206, DE 07/10/08, 2008. Disponible
en http://www.jccm.es
4. Forum Calidad, Certificación en España según normas ISO 9001, 14001 y EMAS,
Decimocuarto Informe de Forum Calidad, Forum Calidad, nº 200, abril, pp. 22-27.
5. AETIC, Las Tecnologías de la Información y las Comunicaciones en la empresa española
2009, 2009. Disponible en http://www.aetic.es
6 Fundetec, Informe ePyme 2008. Análisis sectorial de implantación de las TIC en la pyme
española, marzo, 2009. Disponible en http://www.forumcalidad.com
7 Ministerio de Industria, Turismo y Comercio, La convocatoria 3/2007 del Programa Avanza
PYME, 2008. Disponible en http://www.mityc.es
8 Ishikawa, K., Introducción al Control de Calidad, Díaz de Santos, 1989.
9 ISO 9004:2009, Gestión para el éxito sostenido de una organización. Enfoque de gestión de
la calidad., AENOR, 2009. Smith, T.F., Waterman, M.S.: Identification of Common
Molecular Subsequences. J. Mol. Biol. 147, 195-197 (1981)
10.Edvinsson, L. and Malone, M.S., El capital intelectual, Gestión 2000 Barcelona, 1999.
11.Euroforum, Medición del Capital Intelectual. Modelo Intelect, IUEE, San Lorenzo del
Escorial, Madrid, 1998.
12.Steward, T.A., La Nueva Riqueza de las Organizaciones: El Capital Intelectual ,Granica,
Buenos Aires, 1997.
13.Lev, B., Intangibles. Management, measurement and reporting,Brookings Institution,
Washington, 2001.
14.Ordóñez De Pablos, P., Evidence of intellectual capital measurement from Asia, Europe
and the Middle East,Journal of Intellectual Capital, 2002,3, 3, 287-302.
15.Olve N. and Roy, J. and Wetter, M., Implantando y gestionando el Cuadro de Mando
Integral, Gestión 2000 S.A., 2000.
16.CoCoA Team, CoCoA, a system for doing Computations in Commutative Algebra, 2004.
Disponible en http://cocoa.dina.unige.it
40
I Encuentro de Investigadores en Infraestructuras Inteligentes
El Pavimento Inteligente
Félix Navarro1, 2 , Ángel López1,3, Mario Piattini 1,4
1
AEI Pavimento Inteligente
{Felix.Navarro, Angel.Lopez, Mario.Piattini}@asepi.org
2
Vía Inteligente, S.L.
[email protected]
3
GCL Informática, S.L.
[email protected]
4
Instituto de Tecnologías y Sistemas de Información
Universidad de Castilla-La Mancha
[email protected]
Abstract. Las ciudades se encuentran ante una oportunidad única, gracias a la
integración de diferentes tecnologías e investigaciones en campos tan diversos
como la mineralogía, las comunicaciones y el software, para prestar servicios a
sus ciudadanos de manera “inteligente”
Keywords: Pavimento Inteligente, EPI, Ciudad Inteligente, Via Inteligente
1 Introducción
La investigación en el campo de la inteligencia ambiental se ha centrado en los
últimos años en el hogar, o bien se ha utilizado tecnología como RFID (ya bastante
madura) para integrarla en entornos móviles con el fin de facilitar temas logísticos,
sanitarios o de seguridad. Sin embargo, uno de los lugares más utilizados por las
personas: la calle, no se ha dotado todavía de la inteligencia necesaria. La tendencia
clara en los últimos años es en hacer más accesibles y peatonales los centros de las
principales ciudades, normalmente utilizando piedra natural. Pero no existe
experiencia en la integración de tecnologías inalámbricas (Bluetooth, Wifi, ZigBee,
RFID, etc.) en el pavimento donde existen barreras de exterior y con alteraciones.
1.1 ¿Ciudades analógicas o digitales?
Al igual que ha sucedido con la televisión, creemos deseable un “apagón
analógico” de las ciudades que sus habitantes pudieran celebrar con nuevos servicios
(como los que se muestran en la Fig.1) dando lugar a un sistema de infraestructuras
invisibles y sostenibles.
41
I Encuentro de Investigadores en Infraestructuras Inteligentes
Fig. 1. Ejemplo de servicios para las ciudades “digitales”
1.2 El cambio estratégico de las ciudades
En definitiva se trataría de conseguir que nuestras ciudades lleven a cabo un
cambio “estratégico”, pasando de la situación actual basada en la construcción y obra
pública, a la deseable en el futuro como proveedora de servicios y seguridad a los
ciudadanos, en línea con lo aprobado en la reunión de Ministros de Desarrollo Urbano
de la UE en junio de 2010.
1.3 La tercera ola de innovación tecnológica
De esta manera conseguiremos construir “ciudades inteligentes”, en el sentido que
señala el profesor William Mitchell del MIT, aprovechando la “tercera ola de
innovación tecnológica” que suponen los sensores y etiquetas digitales, y que viene a
sustituir a los dos olas anteriores, relativas a la incorporación de los ordenadores y a la
era de la conectividad que supuso la introducción de Internet.
Como señala este experto, habitar ciudades inteligentes supone estar conectado de
manera continua a diferentes redes, de manera que las ciudades puedan “extender” las
42
I Encuentro de Investigadores en Infraestructuras Inteligentes
capacidades de las personas de forma más completa y global y ofrecerles “momentos
positivos” en sus actividades cotidianas (véase Fig. 2)
Fig. 2. Algunos “momentos positivos” que pueden ofrecer las ciudades inteligentes
2 ASEPI
Con el fin de impulsar estos conceptos y de comprometer a todos los actores que
operan en el sector del pavimento inteligente, para promover la cooperación
interempresarial, fomentar los proyectos colaborativos interempresariales y entre
agentes, se ha creado en noviembre de 2010, una AEI (Agrupación Empresarial
Innovadora) denominada ASEPI (www.asepi.org) que contribuirá a crear y consolidar
la imagen y la posición del sector a nivel nacional e internacional.
Además, ASEPI contribuye al fomento de la investigación, el desarrollo y la
innovación en el sector del pavimento, y en definitiva, en el fomento del desarrollo
económico, social y tecnológico.
La asociación agrupa diversos sectores como son: Proveedores de Tecnología
(Tag RFID, Telecos, Patentes, Impermeabilizantes, etc), Fabricantes de Pavimentos
(Piedra Natural, Hormigón, Prefabricados, etc.), Proveedores de Soluciones
43
I Encuentro de Investigadores en Infraestructuras Inteligentes
(Instaladores, Integradores de Software, Fabricantes de aplicaciones, etc.),
Comercializadores (Comercializadoras e Integradores de pavimento inteligente), y
Centros de de I+D (Universidades, Centros de I+D, etc)
3 EL ESTÁNDAR EPI™
ASEPI, impulsa el estándar del EPI (“El Pavimento Inteligente”), un estándar de
facto, creado por los fabricantes, de forma que las organizaciones y administraciones
públicas sean capaces de implantar el pavimento inteligente en sus ciudades con total
garantía de servicio, suministro, mantenimiento y conexión (por supuesto) con otras
ciudades. Este estándar (véase Fig. 3) contempla todas las clases de elementos y
organizaciones interesadas en el pavimento y los servicios asociados.
Además, el estándar EPI permite un modelo de transferencia de conocimiento y
servicio en relación a la vigencia tecnológica de los desarrollos e implantaciones.
Subcomité
Subcomité
EPI.A:2011 EPI.B:2011
EPI.C:2011
Subcomité
Subcomité
NORMAS
CLASES
Subcomité
Versión 0
Versión 0
Versión 0
EPI.D:2011
Versión 0
Fig. 3. El estándar EPI, concebido por ASEPI
44
EPI.E:2011
Versión 0
I Encuentro de Investigadores en Infraestructuras Inteligentes
A Common-Sense Approach for Automatic Service
Composition in Ambient Intelligence
María J. Santofimia1, Felix J. Villanueva1, Miguel A. Martínez1,Francisco Moya1,
and Juan C. López1,
1
Computer Architecture and Networks Group.
School of Computer Science. University of Castilla-La Mancha
{MariaJose.Santofimia, Felix.Villanueva, MiguelA.Martinez, Francisco.Moya,
JuanCarlos.Lopez}@uclm.es
Abstract. Systems for Ambient Intelligence contexts are expected to exhibit an
autonomous and intelligent behavior by understanding and reacting to the
activities that take place in such contexts. The work proposed here advocates a
common-sense approach as a solution to the shortage of current systems for
Ambient Intelligence when dealing with unexpected scenarios.
Keywords: Ambient Intelligence, Common Sense, Planning.
1 Introduction
Event management and response generation are two essential aspects of systems for
Ambient Intelligence. In spite of having succeed in addressing well-known situations,
novel or unexpected scenarios comprise the bottleneck of intelligent systems.
Analyzing how people react to these unexpected situations provides an idea about the
direction where efforts are to be addressed. Generally, when facing novel situations
we tend to establish some similarities with past experiences, or resort to the general
knowledge about how things work –the so called common-sense knowledge–, or even
look for advice in books. In a human-like fashion, we strongly believe that only
systems will be flexible enough to support Ambient Intelligence when common-sense
reasoning starts being considered a structural part of such systems.
On the basis of the on-going circumstances and also considering the goals that are
to be achieved or fulfilled, Ambient Intelligence systems are expected to devise the
behavioral response that will be undertaken by means of available services.
Nevertheless, these basic services are not always enough to cope with the complexity
of the devised behavior, and therefore, composite services are demanded.
The proposed solution resorts to a common-sense Knowledge-Base with which to
both reason about and model the context and the related events. This approach is
capable of generating ad-hoc responses, in terms of actions to be performed, by
planning course of actions that lead to the composite service that fulfill the sought
functionality.
45
I Encuentro de Investigadores en Infraestructuras Inteligentes
By combining and supporting an action planner on a common sense system, this
work proposes an approach to overcome some of the deficiencies of the current
approaches to systems for Ambient Intelligence. This work basically joins two longstudied fields, common-sense reasoning and planning, to make them work together
towards Ambient Intelligence.
The following figure depicts the overall approach for developing systems for
Ambient Intelligence.
2 Leveraging Common Sense
It is apparent that autonomous and self-sufficient behavior needs to be founded on
knowledge about how things work (also known as common sense), and on the
capability to make decisions based on that knowledge. Automating common-sense
reasoning is a task that requires an expressive enough language, a knowledge base
where to store such a large amount of knowledge, and a set of mechanisms capable of
manipulating this knowledge, so as to infer new information. Regarding the
knowledge base, Cyc[1], WordNet[2] and Scone[3] have proof to be successful
approaches. The Scone KB project is an open-source knowledge based system,
intended to represent symbolic knowledge about the world as an interconnected
network made up of node units and links between them. Its principal strength lies in
the way in which search and inference are implemented. Scone adopts a markerpassing algorithm [4] devised to be run in the NETL machine.
The approach adopted by Scone better meets the demands of the service
composition since knowledge about events and actions are modeled in terms of the
context state or world-model just before the action or the event takes place, and the
context state immediately after the action [5].
The semantic model proposed in [6] is centered on the concept of a service.
Under the Ambient Intelligence perspective, services can be decomposed into the set
of the actions performed on objects. These services are offered by devices. Adopting
46
I Encuentro de Investigadores en Infraestructuras Inteligentes
this semantic model has a significant impact on the planning strategy, since we must
consider not only the preconditions and effects of actions, but also the objects
receiving those actions and the devices providing the services that give rise to actions.
The work in [6] also proposes an approach for action planning with endowed
capabilities to handle the non-trivial aspects of common-sense reasoning 1. The actions
that can be performed by a system (feasible actions) are determined by the devices
and services available at each moment in time. On the contrary those actions that
cannot be performed due to the lack of provider services are named here as nonfeasible actions. Whenever the system demands the execution of a non-feasible
action, the planner comes into play. As listed underneath, the Planning algorithm
starts with an empty plan, the Π plan, to be completed with the list of actions,
provided by services. This course of actions are intended to emulate the demanded
non-feasible action. The course of actions is provided as a set of actions performed on
objects, A and O respectively, and the results R of accomplishing such actions.
2.1 Modeling Multiple-Contexts
The proposed planner exploits the fact that two actions that have similar “after
contexts” and, therefore similar effects on the context are considered to be
functionally equivalent. Moreover, the “before context” can be considered as the set
of requirements that need to be met for the action to be performed. These two
considerations are the cornerstone of proposed planning algorithm.
Representing actions and events in Scone simply consists of de fining two new
contexts, one describing the world before the action or event takes place and another
that represents the state of the world afterwards. The following example describes a
simplified definition of the move event. Lisa moves can be defined as an specific
occurrence of the move event.
NEW-EVENT move
:roles
origin is a place
destination is a place
moving-object is a person
:throughout
origin differs from destination
:before
moving-object is located in origin
:after
moving-object is located in
destination
1
NEW-EVENT-INDV Lisa moves
the origin of Lisa moves is kitchen
the destination of Lisa moves is living-room
the moving-object of Lisa moves is Lisa
IN-CONTEXT before
STATEMENT-TRUE? Lisa is in living-room
=> No
GET the location of Lisa
=> kitchen
IN-CONTEXT after
STATEMENT-TRUE? Lisa is in living-room
=> Yes
Please, refer to: http://arco.esi.uclm.es/~mariaj.santofimia/ for further information about nontrivial issues of common sense
47
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Conclusions
This work points out some relevant aspects that need to be taken into consideration
when developing systems for Ambient Intelligence. As an step towards real intelligent
systems, this work advocates for a common-sense approach to drive Ambient
Intelligence systems in response to on-going situations. To this end, this work
proposed a comprehensive solution intended to provide automatic service
composition, achieved by means of a common-sense planning strategy.
The comprehensive solution summarized here adopts a three-level approach. It
proposes a semantic model for actions and events, which it is considered to be an
agreement on how to interpret the knowledge represented in the knowledge base.
Furthermore, resorting to a semantic model, to be shared among different instances, is
also essential when these instances are expected to extract the same meanings or
conclusions from the represented knowledge. It also proposes an action planning
strategy so as to make the most of the service functionality. Composite services
aggregate the functionality of each of the composing services. Systems for Ambient
Intelligence could respond to whatever the needs on the basis of the available services
and devices and combinations of those. Finally, this work also proposes a way of
capturing the common-sense knowledge that characterized the actions and events by
resorting to the semantics of multiple-contexts and possible-words.
References
[1]
[2]
[3]
[4]
[5]
[6]
Cycorp, I.: The Cyc project home page (2008) Available online at:
http://www.cyc.com. Retrieved on December 10th, 2008.
Christiane Fellbaum. WordNet: An Electronic Lexical Database (Language, Speech, and
Communication). The MIT Press, May 1998.
Fahlman, S.E.: The Scone knowledge-base project (2010) Available online at:
http://www.cs.cmu.edu/sef/scone/. Retrieved on February 28th, 2010.
Fahlman, S.E.: Marker-passing inference in the scone knowledge-base system. In: First
International Conference on Knowledge Science, Engineering and Management
(KSEM’06), Springer-Verlag (Lecture Notes in AI) (2006)
Chen, W., Fahlman, S.E.: Modeling mental contexts and their interactions. In: AAAI
2008 Fall Symposium on Biologically Inspired Cognitive Architectures, Washington.
(2008)
Maria J. Santofimia, Scott E. Fahlman, Francisco Moya, and Juan C. Lopez. A commonsense planning strategy for ambient intelligence. In Proceedings of the 14th international
conference on Knowledge-based and intelligent information and engineering systems.
Springer-Verlag, Berlin, Heidelberg, 193-202.
48
I Encuentro de Investigadores en Infraestructuras Inteligentes
Plataforma de alto nivel para el desarrollo de sensores y
actuadores de bajo coste en entornos inteligentes
C. Martín, D. Villa, O. Aceña, F.J. Villanueva, F. Moya, J.C. López
Laboratorio ARCO, Escuela Superior de Informática, Universidad de Castilla-La Mancha,
Paseo de la Universidad 4, 13071, Ciudad Real
{cleto.martin,david.villa,oscar.acena,felix.villanueva,
francisco.moya,juancarlos.lopez}@uclm.es
http://arco.esi.uclm.es
Resumen En este artículo se presenta la plataforma IcePick, un entorno de desarrollo software que facilita la creación de aplicaciones en redes de sensores y
actuadores para infraestructuras y entornos inteligentes. Su principal ventaja es
que la programación de los dispositivos de bajo coste se realiza desde un alto
nivel de abstracción, agilizando el proceso de desarrollo. Además, la instalación
de los dispositivos es transparente en un entorno inteligente ya desplegado.
Keywords: redes de sensores y actuadores, middleware, metodología de desarrollo
1.
Introducción
Actualmente, las infraestructuras inteligentes presentan numerosos retos de investigación en diferentes campos de la computación. Uno de ellos son las redes de sensores
y actuadores (SAN). Los sistemas inteligentes necesitan conocer diferentes magnitudes
del entorno que les rodea tales como temperatura, presión, etc. En base a este tipo de
datos pueden tomar decisiones y modificar el estado del entorno a través de actuadores
como interruptores, válvulas, etc. Así, la gestión inteligente de infraestructuras requiere
desplegar sensores y actuadores para que sean la interfaz con el mundo real.
Desde el punto de vista de la programación de este tipo de redes se presentan varios
retos. En primer lugar, es necesario que las infraestructuras inteligentes sean escalables.
Incluir nuevos dispositivos sensores o actuadores en un sistema ya desplegado puede ser
una tarea complicada debido, principalmente, a la heterogeneidad de estos dispositivos.
Por ejemplo, un nodo sensor de luz podría requerir adaptaciones específicas para su
integración con el resto del sistema debido a que pertenece a otro fabricante, o funciona
con otro sistema operativo o por cualquier otro motivo. Estos adaptadores complican
tanto la programación del dispositivo (aumentando los costes asociados) así como el
propio entorno inteligente, que necesita soportar servicios de traducción para interactuar
con las SAN desde otras partes del sistema.
Desde el punto de la infraestructura inteligente, los sensores y actuadores tienen
que hacer tareas sencillas tales como medición de una magnitud, envío de medidas,
responder ante eventos simples, etc. Para la mayoría de las aplicaciones es suficiente
el uso de dispositivos basados en microcontroladores de 8 bits y con pocos KBytes
49
2
C. Martín, D. Villa, O. Aceña, F.J. Villanueva, F. Moya, J.C. López
I Encuentro de Investigadores en Infraestructuras Inteligentes
de memoria, reduciendo en gran medida el coste de la instalación. Sin embargo, el
inconveniente principal de este tipo de dispositivos es que las herramientas y lenguajes
de programación ofrecen un nivel de abstracción bajo. Es por ello que su diseño precisa
de personal más especializado, siendo costosos de desarrollar y de mantener. Cualquier
cambio en la infraestructura requiere mucho tiempo de desarrollo y depuración en estos
dispositivos.
Este trabajo describe una plataforma de desarrollo de dispositivos de bajo coste
llamada IcePick. Para el programador ofrece un alto nivel de abstracción y permite
construir SAN con nodos heterogéneos de muy bajo coste directamente integrables en
un sistema ya desplegado.
En la sección 2 se muestra el trabajo relacionado. En la sección 3 se describen los
componentes de IcePick y en la sección 4 se presentan los resultados de diferentes
aplicaciones prototipo. Finalmente, en la sección 5 se exponen las conclusiones.
2.
Trabajo relacionado
Existen en el mercado algunas soluciones que actualmente se utilizan para la programación de dispositivos sensores y actuadores. Waspmote es un producto creado por
la empresa Libelium orientado a las redes de sensores. En estos dispositivos se pueden montar placas con sensores y actuadores y, junto con el producto, se proporcionan
entornos de programación. El lenguaje de programación es C++ simplificado, restringiéndolo a la API1 proporcionada por Libelium. Sin embargo, los entornos y librerías
proporcionadas con Waspmote son exclusivamente para esta plataforma. De hecho, la
biblioteca proporcionada no es genérica y depende en gran medida de la plataforma
hardware de Waspmote.
Otros dispositivos reseñables son la gama Sun SPOT2 y Lego Mindstorms que tienen implementaciones de la máquina virtual de Java (JVM), por lo que son programables en este lenguaje. Sin embargo, el tamaño de una implementación mínima de
una JVM y sus requisitos hardware hacen inviable la carga de estas aplicaciones en
dispositivos de baja gama como microcontroladores.
3.
IcePick: metodología de desarrollo
La plataforma IcePick se basa en la filosofía de la orientación a objetos distribuida.
Además de proporcionar un alto nivel de abstracción, la programación orientada a objetos distribuida aísla el acceso a la red de comunicaciones de forma que el programador
no tenga en cuenta ese tipo de cuestiones. Los middlewares orientados a objetos (MOO)
tales como CORBA3 o Ice4 proporcionan esta capa de abstracción de acceso a la red.
Los nodos que conforman el sistema distribuido pueden ser heterogéneos (PCs, servidores, sensores, actuadores, etc.) ya que todos comparten el núcleo de comunicaciones.
1
2
3
4
http://www.libelium.com/development/waspmote
http://uk.sun.com/specials/sunspot/spec.js
http://www.corba.org
http://www.zeroc.com
50
I Encuentro de Investigadores en Infraestructuras Inteligentes
IcePick
3
En la terminología de los MOO, un objeto distribuido (OD) es una entidad que
proporciona funcionalidad al resto del sistema. Por ejemplo, un sensor de temperatura
se puede modelar como un OD que permite obtener un valor de temperatura a través
de la invocación de determinado método. Para describir la funcionalidad y los modos
de acceso a los servicios de un OD se utilizan interfaces. Dependiendo del middleware,
las interfaces se escriben en un formato u otro (IDL para CORBA; Slice para Ice; etc.).
IcePick se basa en el concepto de picoObjeto [1,2], esto es, una implementación
mínima de un OD que puede ser cargada en dispositivos de bajo coste y, a la vez, ser
integrable automáticamente en un sistema distribuido ya desplegado. Su estructura es
similar a muchos lenguajes interpretados como Java: un bytecode describe el programa
y éste se ejecuta sobre una máquina virtual para una plataforma concreta. De esta forma,
se consigue independencia de la arquitectura hardware en los nodos.
Figura 1. Esquema de la metodología de desarrollo con IcePick. La parte de la izquierda corresponde al desarrollo de un picoObjeto utilizando IcePick. La parte de la derecha es el desarrollo
de una aplicación que interactúa con el picoObjeto. Nótese que partiendo de la descripción de las
interfaces, el desarrollo puede hacerse en paralelo.
En definitiva, IcePick proporciona un conjunto de herramientas para crear picoObjetos automáticamente para diferentes plataformas a partir de una descripción abstracta
y automatiza todo el proceso. Al soportar diferentes tecnologías y arquitecturas, la plataforma es fácilmente extensible.
En la figura 1 se muestra el flujo de desarrollo de una típica aplicación distribuida.
Partiendo de las interfaces definidas por el diseñador, el diseñador de código empotrado
define el comportamiento del picoObjeto utilizando el lenguaje de alto nivel de IcePick.
El compilador ipkc traduce el comportamiento deseado a bytecode interpretable por el
51
4
C. Martín, D. Villa, O. Aceña, F.J. Villanueva, F. Moya, J.C. López
I Encuentro de Investigadores en Infraestructuras Inteligentes
picoObjeto y, además, se proporcionan drivers de acceso al hardware. Estos drivers
deben ser implementados en lenguaje de bajo nivel, pero la plataforma IcePick permite
su reutilización cuando sea necesario. Finalmente, la plataforma automatiza la carga
de todo el software en el dispositivo final. Las aplicaciones clientes interactúan con el
picoObjeto como si de un OD estándar se tratase, por lo que la integración es automática
y sin necesidad de intermediarios.
4.
Prototipos
IcePick ha sido utilizado en numerosos proyectos de investigación, la mayoría de
ellos orientados a entornos inteligentes, como el proyecto Hesperia (CENIT Hesperia).
En la Cuadro 1 se muestran los requisitos de máquina virtual para cada prototipo utilizando el middleware Ice.
Cuadro 1. Requisitos de máquina virtual de diferentes aplicaciones. La columna adv indica si el
dispositivo puede anunciarse al sistema para ser localizado. Tamaños en bytes.
prototipo
Pico mínimo
2 interruptores
Cerradura electrónica
Display electrónico
3 vávulas, 3 sen. luz, 1 sen. presencia
Termostato configurable
adv
no
no
sí
no
sí
no
datos código total RAM
14
89
103
18
68
374
442
19
180 322
449
19
71
292
363
19
209 846 1 055
22
250 626
876
20
A estas cifras se deben sumar los requisitos de la implementación para la máquina
virtual que van desde 1 824 KBytes para microcontroladores PIC hasta 5 199 KBytes
para dispositivos que utilicen algún sistema operativo (p.ej. TinyOS).
5.
Conclusiones
IcePick proporciona una forma más rápida y abstracta de desarrollar objetos distribuidos para dispositivos empotrados y simplifica el proceso de desarrollo reduciendo
los costes asociados. Gracias al concepto de picoObjeto se pueden utilizar middlewares
de propósito general como CORBA o Ice en las SAN donde los recursos de cómputo
son muy escasos. De esta forma, se facilita la integración de este tipo de dispositivos
en los entornos inteligentes. En http://arco.esi.uclm.es/icepick puede
obtenerse la plataforma así como más información.
Referencias
1. Moya, F., Villa, D., Villanueva, F.J., Rincón, F., Barba, J., López, J.C., Embedding Standard
Distributed Object-Oriented Middlewares in Wireless Sensor Networks, Journal on Wireless
Communications and Mobile Computing (WCMC), 1 Mar 2009.
2. Martín, C., Villa, D., Villanueva, F.J., Moya, F., Santofimia, M.J., López, J.C., A development
model supporting integrative object oriented middlewares for sensor and actuator networks,
International Conference on Wireless Networks, Julio 2010.
52
I Encuentro de Investigadores en Infraestructuras Inteligentes
4D Trajectory generation using dynamics and location
information of an aircraft
Mariano Gómez, Sebastián Sánchez
Computer Engineering Department
Universidad de Alcalá, Spain
[email protected]
Abstract. This work proposes the use of a specific technique to handle the
navigation of an aircraft by means of the generation of 4D trajectories and using
dynamics and location information. This technique has been developed in the
Space Research Group (SRG) of the University of Alcalá and it is based on an
algorithm formed by reinforcement learning and Cell-Mapping techniques. The
algorithm will be named controller and will have four state variables under its
control: air speed, altitude, latitude and longitude, through three control actions:
aileron, elevator and throttle. Also, the algorithm will be able to take into
account wind effect over the actions of the controller.
Keywords: Cell-Mapping, Reinforcement Learning, UAV, 4D trajectory,
ATM.
1 Introduction
For the past years, the Single European Sky ATM Research (SESAR) program has
pursued different activities in European Air Traffic Management (ATM) to validate
and guarantee the results of the ATM concept plan to ensure that Europe sustains the
foreseen growth in air traffic capacity in the future while maintaining a high sense of
security and an unbiased attitude towards the effect on the environment. In this
respect, the future trend provides a paradigm shift from the present conventional way
of ATM to a Trajectory Based one. Most of the works are focused towards achieving
the ATM concept plan. Full implementation of 4D trajectory management is foreseen
as the backbone of trajectory based operation.
The research work presented in this article helps to promote a type of autonomous
intelligent behaviour applied to aircrafts and oriented to air traffic management. This
work can be framed within the following interest areas contemplated by the Congress
“I Encuentro de Investigadores en Infraestructuras Inteligentes”: intelligent
infraestructure, airports and intelligent vehicles.
2 Proposed Project
Taking into account the previous ideas framed on the ATM concept, a new project
is proposed whose main goal is to offer a specific solution to allow aircrafts to
generate 4D trajectories using dynamics and location information.
53
I Encuentro de Investigadores en Infraestructuras Inteligentes
2.1 Objectives
1.
2.
3.
4.
Design and implement a controller that will perform optimal navigation
planning. Four state variables will be used: air speed, altitude, latitude and
longitude, through three control actions: aileron, elevator and throttle.
Develop a software application to take into account wind effect over the
actions of the controller and to feed the controller with different waypoints to
describe a flight plan.
Apply the new algorithm in different scenarios taking into account
simulation environments and a real-time scenario with a specific target UAV.
Check the effectiveness of the new algorithm in real flight conditions.
2.2 Analysis of the controller technology employed
The Space Research Group (SRG) of the University of Alcalá has developed a new
technology for generating 4D-trajectories in aircrafts using dynamics and location
information. This technology is able to perform optimal navigation planning
according to specific optimization criteria (e.g. minimum time).This technology has
been widely used in wheeled mobile vehicles (WMV) [1-6]. However, the main goal
of this proposal is to adapt the new technology to aerial platforms (e.g. aircrafts or
UAVs) to perform optimal navigation planning. Both WMVs and aerial platforms are
dynamic and non-linear and the main difference is in the state variables that govern
their behavior and control actions that must be applied.
The research carried out by the SRG Group lets us have an available system, which
is very robust against changes in the environment or in physic structure of the
platform. In order to achieve this robustness, it is necessary to perform a learning that
takes into account of an implicit way these possible changes and is able to know the
dynamics of the platform in real-time. From this learning, the system shall perform
attitude optimal control. For this reason, the learning takes into account of an implicit
way, these possible changes. Also, the new approach is a closed-loop solution and
learning is focused on reaching a specific goal starting from any origin state,
according to an optimization criterion. The goal is a state from a point of a dynamical
view, in which the platform must be operative and stable. On the other hand, the
origin state is the current determination and current location of the platform.
However, it is necessary to reach another state (goal) in order to achieve a good
stability and in case of satellites, maintaining the pointing accuracy.
In this way, the platform (aircraft or satellite) learns the dynamics and kinematics
from the experience without any kind of explicit mathematical models. Thus, the
implementation of the new technology consists of learning the dynamics of the
platform and performing optimal control of a concurrent way. The great advantage of
the concurrency is to adapt the controller while it is being applied and, thus, achieving
a behaviour that comes close to optimum.
The platform is characterized by so-called state variables and the procedure carried
out by the new technology is to act on the platform through control actions in order to
modify its current state. Therefore, the set of state variables and their values range
constitute the so-called state space which will be the scope of the new system.
Sometimes, in order to reduce learning times, it is important to take into account
54
I Encuentro de Investigadores en Infraestructuras Inteligentes
possible symmetries among state variables and the possibility of extrapolating local
knowledge to other areas of the state space. Another unique feature of the new
technology is the absence of criticality in the choice of sampling period. Regardless
of chosen value, controllability will not be affected because the period is
automatically adjusted.
2.3 Working environment
In order to test the new optimal control algorithm, three working scenarios have been
established: simulation environment, hardware in the loop and UAV. Within the
simulation environment, the new control algorithm and the model of the UAV will
run on a simulator computer with real time constraints. The connection between them
is shown in Fig. 1. The NavM module feeds to NOCA (kernel of the controller) with
waypoints (latitude, longitude, altitude) to describe a flight. The NOCA module will
select the optimal trajectory between each couple of waypoints. The decision made by
the NOCA does not take account wind effects. At this point, the third module (WCM)
takes part. WCM will correct deflections of ailerons, elevator and level of throttle to
fly the optimal trajectory when wind appears. The PC that appears in the Fig. 1 and
Fig. 2 handles the Simulator Computer sending different commands (e.g. upload the
controller, reading obtained results).
Within the “Hardware in the loop” scenario, there are an electronic card where the
controller will run and a simulator computer where the mathematical model of the
UAV will run with real time constraints. The state vector comes from the simulator
computer and the control actions will be supplied by the controller. The connection
between the controller target and the UAV model is shown in Fig. 2.
Fig. 1. Simulation environment
When applying to the UAV scenario, the electronic card will be embedded in it.
Therefore, the state vector will come from the UAV sensors and the control actions
supplied by the controller will act over the real control surfaces of the platform. Two
stages can be distinguished in the UAV scenario: ground test, where the flight plan
will be recorded on the electronic card in order to check the correct movements of the
surface controls, and flight test, where the aircraft will be autonomously piloted
determining flight plan.
2.4 Man-Machine Interface (MMI)
Within the test scenarios where simulator computer takes part, new software will be
developed to handle the test environment of the controller. With these applications the
55
I Encuentro de Investigadores en Infraestructuras Inteligentes
user will be able to change several controller parameters values in run-time and
introduce different waypoints to track any trajectory, throughout orders sent from PC
to Simulator Computer.
Fig. 2. Hardware in the loop environment
3
Fig. 3. UAV environment
Conclusions
This proposal contributes to the real implementation of a learning technique that is
able to interact with aerial platforms in order to execute an optimal navigation for
reaching a specific goal (location and velocity) according to an optimization criterion.
From a technical point of view, the performance of the implemented optimal control
technique can be evaluated from the S-shaped switching curve [4]. It is important to
highlight the previous advantages described in Section 2 that let the new approach
progress with respect to other learning techniques involved in optimal planning.
References
1. M. Gómez, T. Martínez, S. Sánchez. “Optimal trajectory generation using the Simple CellMapping method for wheeled mobile vehicles”, In Proc. of SAAEI, pages 1-5. ISSN/ISBN
84-8138-512-3. Universidad de Alcalá (Spain), September 2002.
2. M. Gómez, T. Martínez, S. Sánchez, D. Meziat. “Optimal control applied to Wheeled
Mobile Vehicles”, in Proceedings of IEEE International Symposium on Intelligent Signal
Processing, pp. 83-88. Alcalá de Henares, Madrid (Spain), October 2007.
3. M. Gómez, T. Martínez-Marín, S. Sánchez and D. Meziat. “Optimal control applied for
Wheeled Mobile Vehicles based on Cell Mapping techniques”, in Proceedings of IEEE
Intelligent Vehicles Symposium. Eindhoven University of Technology, The Netherlands.
Conference Proceedings Book, pp. 1009-1014, 2008.
4. M. Gómez, T. Martínez-Marín, S. Sánchez and D. Meziat. “Integration of Cell-Mapping
and Reinforcement Learning Techniques for Motion Planning of Car-Like Robots”, in
IEEE Transactions on Instrumentation and Measurement (Special Issue). Vol. 58, issue 9,
pp. 3094-3103, September 2009.
5. M. Gómez, L. Gayarre, T. Martínez-Marín, S. Sánchez and D. Meziat. “Motion Planning of
a Non-Holonomic Vehicle in a Real Environment by Reinforcement Learning”, in
Proceedings of the International Work-Conference on Artificial Neural Networks
(IWANN), Part I. Salamanca, Spain. Springer LNCS 5514, pp. 813-819, June 2009.
6. M. Gómez. “Optimal Motion Planning and Reinforcement Learning in Autonomous Mobile
Vehicles”. PhD Thesis, University of Alcalá, Madrid, Spain. 2009.
56
I Encuentro de Investigadores en Infraestructuras Inteligentes
A new Attitude Control System (ACS)
for aircrafts and satellites
Mariano Gómez, Sebastián Sánchez
Computer Engineering Department
Universidad de Alcalá, Spain
[email protected]
Abstract. This work proposes the use of a specific technique to handle the
Attitude Control of an aircraft or satellite. This technique has been developed in
the Space Research Group (SRG) of the University of Alcalá and it is based on
an algorithm formed by reinforcement learning and Cell-Mapping techniques.
The new approach can be the same both for aircrafts and satellites and it is
characterized by its learning capacity and adaptability to changes in the
dynamics of the platform.
Keywords: Cell-Mapping, Reinforcement Learning, aircraft, satellite, attitude
control, optimal control.
1 Introduction
Both aircrafts and satellites generally need to be positioned in a certain attitude in
order to meet mission requirements or flight conditions. In order to achieve a specific
attitude, they have to be conveniently oriented. For example, a typical problem that is
faced attitude control system of a satellite is to carry out shunting operations, but
maintaining the pointing accuracy and the level of residual vibration after the
operation. Hence the attitude control system must be able to maintain stability and
good performance.
There are several solutions for the attitude control depending on the mission or the
flight conditions. For example, when the problem is reduced to only an axis, a bangbang control [1] can be used in order to achieve an optimal solution in minimum time.
Nowadays, there are no solutions based in minimum time criterion that are applied to
a real problem composed of three axes. In this case, the problem is simplified by
means of a linearization and it is broken down into three separate problems, one per
axis. However, the three separate controls are not the optimal solution in minimum
time. We could achieve a solution to this complex problem using Dynamic
Programming (DP), but it requires a high computational cost [2].
Recently, stochastic algorithms have obtained interesting results in this area [3].
The main advantage of these algorithms is that they make a global search in the state
57
I Encuentro de Investigadores en Infraestructuras Inteligentes
space due to the use of specific mechanisms to escape from local optimal states (e.g.
evolutionary algorithms [4]). In fact, they are very robust against non-linear problems.
The attitude control system of a satellite includes a sensor that generates an output
signal in response to changes in the attitude. This signal is brought to a Kalman filter
that models the dynamic state of the satellite and sends the control actions to the
actuators for attitude control. The system responds to the actuators and provides a
feedback [5]
2 Proposed Project
In this work, a new technical solution for the Attitude Control System (ACS) is
proposed. This technique will be the same both for aircrafts and satellites. Also, it is
important to highlight the adaptability capacity of the new solution to the continuous
changes in the dynamics of the aircraft or satellite.
2.1 Objectives
1.
2.
3.
Design and implement a controller that will handle the attitude control
through a technique based on an algorithm formed by reinforcement learning
and Cell-Mapping techniques. This controller will have six state variables
under its control: pitch, roll and yaw, pitch speed, roll speed and yaw speed,
through three control actions: one torque per each of the axes.
Apply the new controller to a software model of an aircraft or satellite under
a real time simulation environment.
Show graphically the obtained results and perform an analytical study.
2.2 Analysis of the controller technology employed
The Space Research Group (SRG) of the University of Alcalá has developed a new
technology for applying attitude control to aircrafts and satellites of an optimal way
according to specific optimization criteria (e.g. minimum time).
This technology has been widely used in wheeled mobile vehicles (WMV) [6-11].
However, the main goal of this proposal is to adapt the new technology to aerial
platforms (e.g. aircrafts, UAVs or satellites) to perform attitude control. Both WMVs
and aerial platforms are dynamic and non-linear and the main difference is in the state
variables that govern their behavior and control actions that must be applied.
The research carried out by the SRG Group lets us have an available system, which
is very robust against changes in the environment or in physic structure of the
platform. In order to achieve this robustness, it is necessary to perform a learning that
takes into account of an implicit way these possible changes and is able to know the
dynamics of the platform in real-time. From this learning, the system shall perform
attitude optimal control. For this reason, the learning takes into account of an implicit
way, these possible changes. Also, the new approach is a closed-loop solution and
learning is focused on reaching a specific goal starting from any origin state,
according to an optimization criterion. The goal is a state from a point of a dynamical
view, in which the platform must be operative and stable. On the other hand, the
origin state is the current determination and current location of the platform.
58
I Encuentro de Investigadores en Infraestructuras Inteligentes
However, it is necessary to reach another state (goal) in order to achieve a good
stability and in case of satellites, maintaining the pointing accuracy.
In this way, the platform (aircraft or satellite) learns the dynamics and kinematics
from the experience without any kind of explicit mathematical models. Thus, the
implementation of the new technology consists of learning the dynamics of the
platform and performing optimal control of a concurrent way. The great advantage of
the concurrency is to adapt the controller while it is being applied and, thus, achieving
a behaviour that comes close to optimum.
The platform is characterized by so-called state variables and the procedure carried
out by the new technology is to act on the platform through control actions in order to
modify its current state. Therefore, the set of state variables and their values range
constitute the so-called state space which will be the scope of the new system.
Sometimes, in order to reduce learning times, it is important to take into account
possible symmetries among state variables and the possibility of extrapolating local
knowledge to other areas of the state space.
Another unique feature of the new technology is the absence of criticality in the
choice of sampling period. Regardless of chosen value, controllability will not be
affected because the period is automatically adjusted.
2.3 Working environment
In order to test the new optimal control algorithm, one working scenario represented
in Fig. 1, with a satellite / aircraft simulator has been considered. Within the
simulation environment, the new control algorithm will run on a Personal Computer
(PC) and it will act on the aircraft / satellite simulator. The simulator will provide the
state vector of the platform to the PC: pitch, roll and yaw, pitch speed, roll speed and
yaw speed. The PC will act on the platform sending the corresponding control actions.
2.4 Man-Machine Interface (MMI)
Within the PC where the controller is run, an application software will be developed
to handle the test environment and visualize the obtained results by means of
representative graphics. Therefore, with the MMI the user will be able to change
several controller parameters values in run-time.
Fig. 1. Simulation environment
59
I Encuentro de Investigadores en Infraestructuras Inteligentes
3
Conclusions
This proposal contributes to the following progress beyond the state-of-the-art:
The real implementation of a learning technique that is able to interact with aerial
platforms (e.g. UAV, satellites) in order to execute an attitude optimal control for
reaching a specific goal (location or orientation) according to an optimization
criterion (e.g. minimum time). From a technical point of view, the performance of the
implemented optimal control technique can be evaluated from the S-shaped switching
curve [9]. It is important to highlight the previous advantages described in Section 2
that let the new approach progress with respect to other learning techniques involved
in attitude control.
Acknowledgments
This work has been supported in part by Ministerio de Ciencia e Innovación under the
grant AYA2009-13478-C02-02.
References
1. J. R. Wertz. “Space Attitude Determination and Control.” Kluwer Academic Pub., 1991.
2. S. Thongchet and S. Kuntanapreeda. “A Fuzzy-Neural Bang-Bang Controller for Satellite
Attitude Control.” Journal of KMITNB., vol. 11, no. 4, 2001.
3. X. S. Ge and L. Q. Chen. “Attitude Control of a Rigid Spacecraft with Two Momentum
Wheel Actuators Using Genetic Algorithm.” Acta Astronaútica, 55, pp. 3 –8, 2004.
4. L. D. Davis, K. De Jong, M. D. Vose, and L. D. Whitley. “Evolutionary Algorithms.”
Mathematics and Its Applications, vol. 111, Springer-Verlag, Berlin, Germany, 1999.
5. I. Mainenti et al. “Satellite Attitude Control using the Generalized Extremal Optimization
with a Multi-Objective Approach.” 19th International Congress of Mechanical Enginering,
Brasilia, 2007.
6. M. Gómez, T. Martínez, S. Sánchez. “Optimal trajectory generation using the Simple CellMapping method for wheeled mobile vehicles”, In Proc. of SAAEI, pages 1-5. ISSN/ISBN
84-8138-512-3. Universidad de Alcalá (Spain), September 2002.
7. M. Gómez, T. Martínez, S. Sánchez, D. Meziat. “Optimal control applied to Wheeled
Mobile Vehicles”, in Proceedings of IEEE International Symposium on Intelligent Signal
Processing, pp. 83-88. Alcalá de Henares, Madrid (Spain), October 2007.
8. M. Gómez, T. Martínez-Marín, S. Sánchez and D. Meziat. “Optimal control applied for
Wheeled Mobile Vehicles based on Cell Mapping techniques”, in Proceedings of IEEE
Intelligent Vehicles Symposium. Eindhoven University of Technology, The Netherlands.
Conference Proceedings Book, pp. 1009-1014, 2008.
9. M. Gómez, T. Martínez-Marín, S. Sánchez and D. Meziat. “Integration of Cell-Mapping
and Reinforcement Learning Techniques for Motion Planning of Car-Like Robots”, in
IEEE Transactions on Instrumentation and Measurement (Special Issue). Vol. 58, issue 9,
pp. 3094-3103, September 2009.
10. M. Gómez, L. Gayarre, T. Martínez-Marín, S. Sánchez and D. Meziat. “Motion Planning of
a Non-Holonomic Vehicle in a Real Environment by Reinforcement Learning”, in
Proceedings of the International Work-Conference on Artificial Neural Networks
(IWANN), Part I. Salamanca, Spain. Springer LNCS 5514, pp. 813-819, June 2009.
11. M. Gómez. “Optimal Motion Planning and Reinforcement Learning in Autonomous Mobile
Vehicles”. PhD Thesis, University of Alcalá, Madrid, Spain. 2009.
60
I Encuentro de Investigadores en Infraestructuras Inteligentes
SACAT: Un sistema de ayuda a la conducción y
asistencia en caso de accidentes
Javier Fernández, Nourdine Aliane, Sergio Bemposta y Mario Mata
Dpto: Sistemas Informáticos y Automática
Universidad Europea de Madrid, Villaviciosa de Odón
28670 Madrid, Spain
{javier.fernandez, nourdine.aliane, sergio.bemposta, mario.mata}@uem.es
Resumen. El presente artículo presenta SACAT, una plataforma experimental,
desarrollada con el objeto de llevar a cabo investigaciones relacionadas con
técnicas de asistencia a la conducción y la seguridad vial. En primer lugar, el
artículo describe la arquitectura hardware de la plataforma experimental.
Seguidamente, se presentan el desarrollo de las funcionalidades de un sistema
de ayuda a la conducción y una realización del sistema de emergencia
denominado eCall. El sistema ha sido probado en diferentes condiciones y
muestra resultados satisfactorios.
Palabras Claves: Asistencia a la conducción, Seguridad vial, e-Call, Vehículos
inteligentes.
1 Introducción
Muchos accidentes de tráfico se deben a la falta de respeto de las señales de tráfico
como la limitación de velocidad o la señal de stop. Muchas de estas infracciones no
son deliberadas y suelen tener lugar por la falta de concentración por parte de los
conductores [1], la distracción [2] y la fatiga [3]. A pesar de este hecho, la mayoría de
los conductores no es consciente de ello [4]. Por tanto, la utilización de los sistemas
de asistencia a la conducción para advertir a los conductores de los peligros
potenciales en carreteras es primordial para reducir el número de accidentes.
Por otro lado, proporcionar ayuda y asistencia a los involucrados en los accidentes
de tráfico es igual de importante que prevenirlos. En este aspecto, acortar los tiempos
de respuesta de los servicios de emergencia y del desplazamiento de los recursos
necesarios al lugar de los accidentes es igualmente vital. Este aspecto ha sido
recogido por una iniciativa de la Comisión Europea conocida como el sistema de
emergencia denominado e-Call [5].
Este artículo describe una plataforma experimental, llamada SACAT, con una
implementación de un sistema de ayuda a la conducción basado en visión por
ordenador y una implementación del sistema de emergencia conocido por e-Call que
se activa automáticamente en caso de accidente.
61
I Encuentro de Investigadores en Infraestructuras Inteligentes
2 Plataforma experimental
Cam 3
Cam 2
Cam 1
La plataforma SACAT se basa en un coche convencional modelo Nissan Note (ver
Fig.1). El hardware está localizado en el maletero del vehículo, y consiste en una
placa Mini-ITX como maestro y un PC convencional como esclavo que se encarga del
sistema de visión. El sistema de visión contiene tres cámaras: una cámara panorámica
para la grabación de videos y otras dos cámaras digitales de tipo IEEE 1394
reservadas para la detección de señales de tráfico. Todas las cámaras están montadas
en el techo del automóvil. La placa Mini-ITX integra varios elementos como un
modem GPRS, un adaptador bluetooth, y varios conectores como el IEEE 1394,
decodificadores MPEG2/MPEG4, o bus SATA. La Mini-ITX se utiliza para
centralizar la información recibida no solo desde el PC, sino también por los
diferentes elementos externos como un GPS, el bus CAN así como la señal de airbag.
Toda la electrónica se alimenta con un inversor de continua/alterna transformando la
los 12 voltios de la batería a 220V de corriente alterna con una potencia de 600W. La
arquitectura hardware del sistema se resume en la Fig. 2. Por último, el sistema está
dotado de una pantalla táctil localizada en el salpicadero del vehículo y permite
realizar las diferentes tareas de administración (ver Fig. 3).
Touchpad
Image Processing
(PC-ATX)
Central Device
(mini –ITX)
Card
Reader
Fig. 1: Plataforma experimental.
CAN
Interface
GSM/GPRS/UMTS
GPS
Fig.2: Arquitectura hardware del sistema.
Fig.3: Software integral de SACAT
62
I Encuentro de Investigadores en Infraestructuras Inteligentes
Por otra parte, la placa Mini-ITX integra una base de datos en una tarjeta de tipo
“compact-flash” para el almacenamiento de datos y dar así un soporte a la
implementación de la funcionalidad de una caja negra. El uso de una base de datos
ofrece un abanico amplio de posibilidades como el análisis del comportamiento de
conducción de los conductores fuera de línea.
La placa Mini-ITX dispone también de un sistema de lectura de tarjetas
inteligentes (SMART CARD) y así posibilitar diferentes perfiles de usuarios. En
efecto, SACAT distingue tres tipos de usuarios: el conductor como usuario final, un
agente de una compañía de transporte (como en las flotas) que actúa como
administrador del sistema, y un agente de tráfico (para futuros usos con la DGT).
3 Sistema de ayuda a la conducción
La primera funcionalidad consiste en un sistema de ayuda a la conducción, el cual se
basa en un sistema de visión por ordenador con el objetivo de asistir a los conductores
avisándolos de los riesgos potenciales que puedan surgir en carretera. Este sistema se
encarga de la detección y reconocimiento de la señalización vertical, y generar avisos
visuales y sonoros sobre las señales presentes en carreteras con suficiente antelación
para dar tiempo de reacción a los conductores a las situaciones potencialmente
peligras. Estos avisos cubren diversas situaciones como el superar el límite de
velocidad detectado, cuando el conductor efectúa un adelantamiento si hay una señal
de prohibición del mismo, o avisarle al aproximarse a una señal de “ceda el paso” o
de “stop”.
4 Sistema de emergencia e-Call
El sistema e-Call consiste en un dispositivo que emite de forma automática una
llamada de emergencia en caso de accidente con el objeto de alertar a los servicios de
emergencia facilitándoles información relevante sobre la colisión. Los accidentes se
detectan mediante la señal de disparo del Airbag, que a su vez activa el proceso de
envío de un mensaje SMS a través del móvil al centro de servicios de emergencia
llamado PSAPs (Public Safety Answering Point) correspondiente en España (112).
Los mensajes enviados son estructurados y constan de los siguientes campos: “When”
o hora de la transmisión; “Where” que localiza en latitud y longitud el accidente, y el
“Who” relacionados con los datos del conductor y el tipo de carga del vehículo por si
fuera peligrosa. El envío de mensaje se asegura mediante un sistema redundante
implementado mediante otro modem GPRS encargándose de enviar por duplicado el
mensaje. La realización implementada en SACAT es capaz de determinar la cobertura
de telefonía móvil existente en la zona del incidente y, en función de ella, establecer
una comunicación de voz y/o video en tiempo real con el centro de emergencia.
63
I Encuentro de Investigadores en Infraestructuras Inteligentes
4 Discusión y conclusiones
En su implementación actual, el sistema SACAT es capaz de procesar hasta 4
imágenes por segundo. Así, a una velocidad de 100 km/h, el sistema dispone de 2
oportunidades para detectar e identificar las señales de tráfico a las distancias de 50 y
30 metros aproximadamente, pudiendo tener más oportunidades a velocidades
menores. El sistema ha sido probado en condiciones reales con un total de 2000-km
circulando a velocidades normales por entornos urbanos e interurbanos tanto en
autopistas como en carreteras secundarias, en condiciones atmosféricas variables y a
diferentes horas del día. Obviamente la mayor dificultad para el sistema es la
adaptación a las distintas condiciones de iluminación. Se ha dispuesto de un sistema
de ajuste dinámico de los parámetros de captura para responder en la medida de lo
posible a estos cambios.
En cuanto a las políticas de alerta al conductor, los avisos repercuten
directamente en la atención del mismo sobre la vía, dificultando que el conductor no
perciba una señal en momentos de distracción. También refuerza la atención del
conductor sobre su velocidad y sobre la llegada a puntos peligrosos como cruces e
incorporaciones, que el conductor recibe con varios segundos de antelación. Un
sistema de avisos fiable repercutirá sin duda en la mejora de la seguridad al volante.
Por otra parte, el sistema e-Call ha sido probado mediante la activación del sensor
del Airbag y comprobando el envío subsiguiente de los mensajes correspondientes.
Lejos de ser una aplicación comercial, SACAT constituye una plataforma
experimental para la investigación de muchos otros aspectos relacionados con el
desarrollo de los sistemas de ayuda a la conducción y la seguridad vial.
Agradecimientos
Este trabajo ha sido financiado por la Comunidad de Madrid bajo el proyecto
(S2009/DPI-1509-SEGVAUTO).
Referencias
1.
2.
3.
4.
5.
Bergasa, L. M. et all,: Visual Monitoring of Driver Inattention, Springer Berlin /
Heidelberg, Vol. 132, nº 1, pp.25-51. (2008)
Horrey, W.J. And Lesch, M. F.: Driver-initiated distractions: Examining strategic
adaptation for in-vehicle task initiation, Accident Analysis & Prevention, Vol 41, nº 1,
pp.115-122. (2009).
Manubhai, M., Trivedi, T. G., MCcall, J. C.: Looking-In & Looking-Out of a Vehicle:
Computer-Vision-Based Enhanced Vehicle Safety, IEEE Intelligent Transportation
Systems, Vol. 8, nº 1, pp.108-120, (2007).
Horrey , W.J., Lesch, M. F., and Garabet, A.: Assessing the awareness of performance
decrements in distracted drivers, Accident Analysis & Prevention, Vol. 41, nº 1, pp. 675–
682, (2008).
E-merge:
IST-2001-34061,Final
report
(2004):
(On-line)
Available
at:
http://www.gstforum.org/en/subprojects/rescue/about_gst_rescue/introduction/emerge.htm.
64
I Encuentro de Investigadores en Infraestructuras Inteligentes
Elcano: Infraestructura multimodal para navegación
en interiores
M. A. Martínez, F. J. Villanueva, F. Moya, C. González and J. C. López
Grupo Arco, Escuela Superior de Informática, Ciudad Real
Universidad de Castilla-La Mancha
{miguela.martinez, felix.villanueva, francisco.moya, carlos.gonzalez,
juancarlos.lopez}@uclm.es
Abstract. La localización y guiado de personas en interiores ha centrado
numerosos esfuerzos por parte de la comunidad investigadora en los últimos
años. En este artículo se muestra una arquitectura que, bajo el paradigma de la
orientación a objetos distribuidos, permite integrar cualquier tipo de tecnología
capaz de proporcionar información sobre posicionamiento. El objetivo principal
es poder combinar los datos relativos a posicionamiento provenientes de
diversas fuentes (y con sus respectivos márgenes de error) convirtiéndolos en
información más precisa y robusta. Nuestro campo de aplicación es
proporcionar un sistema de navegación en edificios públicos a personas con
algún tipo de discapacidad.
Keywords: arquitectura de navegación en interiores, sistemas distribuidos,
middleware.
1 Introducción
En los últimos años se han utilizado numerosas tecnologías con el objetivo de
localizar personas en interiores (p.ej. WiFi [1], Bluetooth [2], RFID [3], 802.15.4 [4],
etc.). Cada una de las tecnologías utilizadas tiene sus ventajas e inconvenientes
(variaciones en factores como el alcance, el coste, etc), ofreciendo información con
distintos niveles de precisión. En este trabajo abordamos la hipótesis de combinar la
información proveniente de diversas tecnologías y ofrecemos una arquitectura que es
capaz de tratar la heterogeneidad existente en tecnologías de localización. Esta
arquitectura proporciona información de navegación a usuarios discapacitados con el
objeto de asistirles en sus labores cotidianas en el interior de edificios. En este artículo
se muestra la vista general del sistema haciendo especial hincapié en el sistema
multimodal de localización. Como veremos más adelante, el sistema se divide en
distintos servicios remotos donde cada uno aborda un propósito específico. Para ello,
cada servicio ofrece al resto del sistema una interfaz definida en un lenguaje de
implementación de interfaces. En nuestro caso y para la implementación del prototipo
se ha utilizado el midleware Ice [5] de ZeroC. Dependiendo de la función de cada
servicio se ha tenido en cuenta las necesidades de replicación y sincronización con el
65
I Encuentro de Investigadores en Infraestructuras Inteligentes
objetivo de aumentar la tolerancia a fallos. Además, los servicios implementan un
interfaz de descubrimiento de servicios para buscar y anunciar servicios [6].
Fig 1. Visión global de la plataforma Elcano
2 Gestión de entorno y usuarios
La gestión de usuarios es llevada a cabo por dos servicios. Por un lado, el User Status
Service, es el encargado de monitorizar tanto el estado del usuario (posición, lugares
visitados, etc.) así como la tarea que debe desempeñar en el interior del edificio. Por
otro lado, el User Manager Service debe tratar la información relativa tanto al perfil
de usuario como al proceso de autenticación en el sistema. Estos servicios ofrecen la
funcionalidad del sistema a los distintos usuarios, permitiendo la personalización de
los datos teniendo en cuenta las características especiales del usuario.
Dentro de cada edificio, se define el conjunto de tareas que un usuario puede
llevar a cabo. Cada tarea tiene asociados uno o más puntos de interés (p.ej. una
conferencia estará relacionada con la sala donde se impartirá). Una vez que se entra
en el sistema, el usuario puede expresar su interés en cualquiera de las tareas que
ofrezca el edificio. Esta funcionalidad la gestiona el Task Viewer que se encarga de
ofrecer, de forma adaptada a la discapacidad del usuario, las tareas definidas en el
entorno. Finalmente, el usuario debe ser capaz de comunicarse con el sistema, labor
que se realiza a través de la aplicación Explorer que se ejecuta en su dispositivo
móvil.
Servicios como el Task Viewer y el Explorer son totalmente genéricos e
interaccionan con la información que les proporciona el entorno en el que están
inmersos. En el caso de las tareas, se ofrecen por medio del Task Manager Service y
definen aspectos como el lugar donde se puede llevar a cabo la tarea, el tipo de
público al que va dirigido, la descripción, etc.
La información referente a la ubicación de puntos de especial interés, como
balizas, escaleras, ascensores o puertas se gestiona mediante el Building Repository
66
I Encuentro de Investigadores en Infraestructuras Inteligentes
Service, encontrándose disponible para su utilización por otros servicios del sistema.
En concreto es de especial interés el tratamiento que se realiza por parte de los
servicios que implementan la parte del estándar OpenLS [7]. Este estándar define
interfaces para ofrecer servicios y estructuras orientados a la geolocalización. Para
este trabajo se ha implementado el Route Service, que ofrece una interfaz para
recuperar rutas entre puntos de interés, y el Directory Service, que ofrece interfaces
para recuperar puntos de interés pudiendo realizar búsquedas del tipo “¿Cual es el
ascensor más cercano a un punto dado?”.
3 Sistema de localización multimodal
El sistema ofrece información contextual y personalizada a los usuarios, por lo que es
imprescindible detectar dónde se encuentra cada usuario en cada momento. Para este
propósito se ha implementado el estándar Mobile Location Protocol [8]. Este estándar
define interfaces y estructuras que permiten la gestión de eventos de localización,
desacoplando productores y consumidores de dichos eventos. Teniendo en cuenta esta
distinción de roles, y asumiendo que cada proveedor de eventos tiene una ubicación y
cubre un área bien conocida, se ha utilizado un protocolo de descubrimiento de
servicios para conseguir la composición automática de proveedores de eventos por
área. Cada proveedor de eventos implementa una interfaz que permite gestionar los
consumidores que desean recibir eventos y otra que le posibilita el contestar a
búsquedas. Por su parte, los consumidores implementan la interfaz que permite recibir
eventos de localización. Teniendo esto en cuenta, el Location Service (LS) es un
consumidor de eventos que busca proveedores de eventos que estén bajo una
determinada área. Para poder recibir eventos, el LS realiza una búsqueda de
proveedores que se encuentren en el área que representa; cada proveedor recibirá el
evento de búsqueda y tras realizar la intersección entre el área que reciben y la que
representan contestarán al LS (si la intersección no es vacía). El LS recibe las
respuestas de aquellos proveedores de eventos que están en el área que representa y se
subscribe como consumidor de eventos en cada uno de ellos, de este modo consigue
recibir todos los eventos de esa área.
Una vez canalizados todos los eventos de localización que hay en un determinado
área podemos ofrecer un servicio con una mayor carga semántica, es decir, se podrá
componer información de localización más rica y precisa. Ésta es la función principal
que exporta el LS. Así, se exporta una interfaz con métodos que permiten, por
ejemplo, recuperar la última posición conocida de un dispositivo, realizar un
seguimiento de un dispositivo, recuperar los usuarios que hay en un área y vigilar los
eventos de localización que se están dando en un área concreta.
Si tenemos en cuenta que este sistema es capaz de tratar los proveedores de eventos
heterogéneos como fuentes de eventos idénticas (gracias a la implementación de MLP
realizada), debemos considerar que recibimos eventos de localización de diversas
tecnologías, lo que implica trabajar con distintas precisiones y retardos de
propagación. En concreto el LS recibe eventos de localización durante un tiempo y
realiza la intersección de todos los eventos recibidos: si la intersección no es vacía
propaga un evento de localización con el resultado de la intersección; si es vacía se
67
I Encuentro de Investigadores en Infraestructuras Inteligentes
envía el evento que proporciona la tecnología con menor error de localización. El
enfoque del LS, basado en áreas, permite la federación de varios LS de forma que
podemos modelar cualquier entorno por grande y complejo que sea.
En el prototipo desarrollado se han implementado varios proveedores de eventos
de localización. La localización más precisa se ha obtenido mediante proveedores de
eventos basados en RFID (concretamente se han utilizado lectores USB OMNIKEY
5321). El proveedor de eventos de localización basado en Bluetooth nos proporciona
un rango de error amplio, en torno a 10 metros. En el campo de las tecnologías
inalámbricas, también se están utilizando técnicas de localización basadas en 802.11,
desplegando una rejilla de balizas y realizando radio-mapas que nos permiten calcular
con más precisión la posición del usuario. En base a estos eventos básicos, se crean
proveedores virtuales que, o bien estiman la posición a partir de la estructura del
edificio, o bien ofrecen información de si el usuario se mueve (mediante los
acelerómetros del móvil), etc. Cada proveedor de eventos tiene sus características
específicas, sin bien, a la hora de propagar los eventos, todos actúan del mismo modo,
por lo que el tratamiento de los eventos para el sistema es completamente homogéneo.
4 Conclusiones
El presente trabajo estudia la convergencia de eventos de localización provenientes de
distintas fuentes para obtener una sinergia en cuanto a la información y seguimiento
de usuarios en interiores. El campo de aplicación es la asistencia en interiores
(guiado) a usuarios con necesidades especiales.
References
1. Cisco Systems. Wi-Fi Location-Based services 4.1 design guide. Technical report, Mayo
2008
2. A.E. Salloum Salazar. Positioning bluetooth and wi-fi systems. IEEE. Transactions on
Consumer Electronics, vol. 50, num. 1, pp. 151–157, 2004
3. T. Sanpechuda and L. Kovavisaruch. A review of rfid localization: Applications and
techniques. Electrical Engineering/Electronics, Computer, Telecommunications and
Information Technology, 2008. ECTI-CON 2008. 5th International Conference on, vol. 2,
pp. 769 –772, Mayo 2008
4. P. Barsocchi, S. Lenzi, S. Chessa, and G. Giunta. Virtual calibration for rssi-based indoor
localization with ieee 802.15.4. Communications. IEEE International Conference on, pp. 15, 2009
5. Henning, M. Distributed Programming with Ice. ZeroC Inc, V. 3.4, (2010)
6. Villanueva, F.J., Villa, D., Santofimia, M.J., Moya, F., Lopez, J.C. A Framework For
Advanced Home Service Design and Management. IEEE Trans. On Consumer Electronics,
vol. 55, num. 3, pp. 1246-1253, (2009)
7. Open Geospatial Consortium. OpenGIS Location Services (OpenLS): Core Services. OGC
0-06, V. 1.1, (2005)
8. Open Mobile Alliance. Mobile Location Protocol. Candidate Version 3.1, (2004)
68
I Encuentro de Investigadores en Infraestructuras Inteligentes
Evaluación funcional del uso de la tecnología RFID en
aplicaciones ferroviarias
Raquel Martinez Barbero1, Valentín González1, José Hierro Ortega2, Adrian
Lucien Vlad2, Idoia Guirado Zabala2, Enrique Fernández Pinel2, Jesús María
González Fernández3,
1
Administrador de Infraestructuras Ferroviarias [ADIF]
2
Instituto de Magnetismo Aplicado [IMA]
3
Unidad Asociada ICMM-CSIC / IMA-UCM
{raquel.martinez, efpinel, jhierro, avlad}@adif.com
[email protected]
Abstract. Se presenta un estudio funcional y de compatibilidad
electromagnética sobre la viabilidad del uso de la tecnología de Identificación
por Radio Frecuencia (RFID, en acrónimo inglés) para desarrollar aplicaciones
en el entorno ferroviario. Desde el punto de vista del soporte físico de la RFID,
el entorno ferroviario presenta dos características diferenciales: por una parte,
incluye elementos móviles a altas velocidades y, por otra, involucra el consumo
de elevadas potencias. Ambas características se han incorporado al diseño de
las pruebas que se realizaron en vía y, en concreto, incluyeron la comparación
de la funcionalidad básica de etiquetas pasivas, activas y semipasivas, el
examen de configuraciones de distintos componentes comerciales y la
identificación de ubicaciones viables para etiquetas y antenas lectoras.
Keywords: RFID, identificación de material rodante, CEM.
1 Introducción
En el modelo actual de explotación de la infraestructura ferroviaria abierta para los
operadores interesados, está surgiendo la necesidad de identificar, con fiabilidad y
rapidez, diferentes elementos.
Por un lado, es necesario identificar las circulaciones y el material rodante
involucrado en las mismas. Por otro, y en relación a la propia infraestructura, es
también necesaria la identificación precisa y trazable de un gran número de elementos
y componentes que son objeto de los trabajos de mantenimiento.
Una propuesta que pretende dar respuesta a estos requisitos es la basada en el uso
de la tecnología de identificación mediante etiquetas legibles mediante señales
electromagnéticas (“tags” RFID, acrónimo inglés de “Radio Frequency
Identification”). Las etiquetas son capaces de almacenar códigos, que una vez leidos
son utilizables por sistemas de gestión de bases de datos y de control. La tecnología
conoce desde hace años una implantación extensa en distintos sectores económicos.
Cabe destacar su uso en aplicaciones que van desde la gestión de acreditaciones
69
I Encuentro de Investigadores en Infraestructuras Inteligentes
personales hasta el pago del peaje en autopistas, pasando por la gestión de
mercancías.
La implantación del etiquetado RFID en el ferrocarril ha sido, hasta el presente,
limitada y esto a pesar de su evidente potencial de utilización como elemento
identificativo del parque de componentes (móviles y de infraestructura). Se pueden
identificar dos razones principales para ese retraso en la implantación de la
tecnología en el ferrocarril. Por una parte, el hecho de que el material móvil
ferroviario debe poder ser identificado en sus condiciones normales de operación y,
por tanto, a velocidades elevadas. Por otra, y ya que el soporte de físico de la
identificación es la radiación electromagnética, ha de considerarse, como paso previo
a la implantación de la tecnología, su compatibilidad con las ya presentes en el
entorno ferroviario. Entre esas tecnologías preexistentes hay que destacar por la
potencia de su emisión electromagnética las de electrificación y tracción, y por su
criticidad el control y la señalización.
2 Trabajo experimental
El conjunto de las pruebas realizadas en el proyecto se puede agrupar en dos
categorías fundamentales:
- Por una parte, ensayos dirigidos a la caracterización del ambiente electromagnético
presente en el entorno ferroviario. Esto incluye tanto las emisiones asociadas a la
infraestructura como las originadas en el material rodante. En este último caso, se han
de incluir los distintos tipos de material y sus diferentes condiciones dinámicas.
- Por otra, ensayos funcionales de aplicación de dispositivos RFID, que incluyen la
evaluación de diferentes diseños de etiqueta, de distintos componentes comerciales y
de varias configuraciones de instalación de los mismos. Se pretende de estas pruebas
la identificación de ubicaciones viables y óptimas para el etiquetado y los lectores.
La caracterización del ambiente electromagnético ferroviario se ha centrado en las
posibles bandas de trabajo de la tecnología RFID. Dado lo reducido del tiempo
disponible para la lectura de las etiquetas en numerosas condiciones dinámicas del
material móvil, se consideró que la transmisión de la información se implementaría en
condiciones de mayor fiabilidad si se recurría a portadoras en las bandas de UHF
(concretamente se ha estudiado la banda que va desde los 860 MHz hasta los 960
MHz) y de ondas centimétricas (la banda estudiada va desde los 2.40 GHz hasta los
2.48 GHz). El objetivo del estudio es el de obtener información cuantitativa sobre el
ambiente electromagnético ferroviario en ambas bandas. Para ello, se han medido los
campos presentes en diferentes entornos de la infraestructura ferroviaria
caracterizados por algún elemento que pudiese introducir un comportamiento
electromagnético no conocido. Al igual que en la infraestructura, se ha realizado un
completo estudio sobre las emisiones del material rodante que incluye tanto las
diferentes tipologías explotadas en la red española en la fecha del estudio como
diferentes condiciones dinámicas.
Las pruebas de aplicación de los componentes RFID se han realizado en la vía de
prueba situada en Brihuega, PK 69.5 de la Línea de Alta Velocidad Madrid-
70
I Encuentro de Investigadores en Infraestructuras Inteligentes
Barcelona. En estas pruebas se contemplan tres escenarios. El primero de ellos, se
corresponde con la lectura de etiquetas ubicadas en distintas posiciones en los coches
y cabezas del tren de prueba, y tiene como principales objetivos, la observación de las
prestaciones de componentes RFID comerciales y la identificación de las ubicaciones
de las etiquetas en el material rodante que proporcionen la mayor eficiencia desde el
punto de vista de su lectura. En el segundo escenario, se prueban lecturas desde el
material móvil de etiquetas situadas en la infraestructura, con el propósito de estudiar
las posibilidades de aplicación de esta tecnología para identificar elementos concretos
de la vía con interés desde el punto de vista de las tareas de mantenimiento. El tercer
escenario se corresponde con la realización de pruebas funcionales de carácter
estático sobre distintas tipologías de material rodante de mercancías. Estas últimas
pruebas se justifican por la complejidad de las estructuras metálicas presentes en este
tipo de material.
Fig. 1. Diferentes componentes RFID evaluados en pruebas con trenes de alta
velocidad en vía de pruebas (etiquetas pasiva, activa y semipasiva)
Fig. 2. Ubicaciones de etiquetas en los laterales de la caja del tren de pruebas (alta
velocidad)
71
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Conclusiones
Las conclusiones del estudio se presentan en los siguientes párrafos.
En cuanto a los ensayos de caracterización electromagnética, el rango de
frecuencia que va de los 860 MHz a los 875 Mhz (disjunto de las sub-bandas usadas
por GSM y GSM-R), es el recomendable para la operación de componentes RFID que
trabajen en UHF. En la banda de las ondas centimétricas los niveles de campo son
inferiores a los medidos en UHF y no se han observado características comunes en los
espectros asociados a las distintas localizaciones estudiadas.
De los ensayos realizados en la vía de pruebas se concluye que el conjunto de
componentes que mejor estadística de lecturas ha proporcionado ha sido el
correspondiente a etiquetas RFID pasivas y antenas lectoras situadas en
infraestructura (en traviesa, y postes, vallas o pértigas), resultando preferible la
ubicación de la etiqueta en bajos del tren y la de la antena en traviesa. En concreto,
para el conjunto lector A-antena 1-tag1 se registró un 100% de lecturas correctas en
condiciones dinámicas correspondientes a velocidades de hasta 344 km/h.
Por último, y de los resultados de los ensayos realizados sobre material rodante de
mercancías, se concluye que la estructura de ciertos vagones de mercancías limita las
posibles ubicaciones de las etiquetas RFID. En particular, se han identificado
problemas de lectura relacionados con factores como la interferencia del haz de
lectura con sus reflexiones en distintos elementos de la estructura del vagón. Es por
tanto preferible ubicar las etiquetas en posiciones en las que puedan enfrentarse a la
antena lectora sin que en las proximidades del ángulo sólido con el que el lector la
observa se puedan encontrar diedros o triedros u otras estructuras que den lugar a
efectos de guía.
Referencias
1. RFID Handbook: Fundamentals and Applications in Contactless Smart Cards and
Identification, Second Edition, John Wiley & Sons 2003.
72
I Encuentro de Investigadores en Infraestructuras Inteligentes
Multi-radio platform coexistence in the 5 GHz band for
railway applications
Jorge Higuera1, Elli Kartsakli1, Carlos Collado1, José M. González-Arbesú1, Luis
Alonso1, José L. Valenzuela1, Andres Laya1, Enrique Flores2, Isabel Navarro2, Raquel
Martinez3, Jesús González4, José Hierro4, Adrian Vlad4,
1
Technical University of Catalonia (UPC), Department of Signal Theory and
Communications (TSC)
2
SENER Ingeniería y Sistemas
3
Spanish Railway Infrastructure Administrator (ADIF)
4
Applied Magnetism Institute (IMA)
Abstract. This paper studies the practical challenges that arise due to the
coexistence of two wireless technologies, in 5 GHz band. The mutual
interference caused by the two technologies operating in different but narrowly
separated frequency channels has a negative impact on the performance of both
systems. Further challenges are introduced when the two systems are in close
physical proximity of each other or, in a more extreme scenario, share the same
antenna as in railway applications. This paper investigates these issues through
a series of experimental tests based on a multi-radio platform testbed. The
conclusions drawn from this study will be used as a base for the implementation
of a multi-radio platform to provide communications between train and land in
both directions in the context of the Spanish high-speed railway system.
Keywords: mutual interference, wireless multi-radio platform, multi-radio
coexistence, high-speed railway applications.
1 Introduction
In recent years, Spain has made a significant and sustained investment in the national
railway system, focusing especially on high speed rail services. This continuous
growth in railway infrastructure demands new innovative services to develop efficient
wireless communication systems to provide control monitoring and enhance security.
The challenge is even greater in scenarios involving a wireless link between land
infrastructure and high-speed trains that can travel over 300 km/h. Hence, an
interesting question arises on whether conventional wireless technologies for video
applications can be employed, in spite of not being explicitly designed for high-speed
railway networks. Some wireless standards that could potentially be adopted for video
and data transmission in dynamic applications. However, establishing simultaneous
multi-radio links in the same scenario is not a straightforward matter, due to mutual
interference between the two technologies operating in the same frequency band. This
paper will investigate the feasibility of the coexistence of WiMAX and Wi-Fi
73
I Encuentro de Investigadores en Infraestructuras Inteligentes
technologies, both operating in the license-exempt band of 5 GHz. The main novelty
of this work is that it examines coexistence from a practical point of view, based on a
series of experimental tests carried out on a real multi-radio platform that
encompasses the two wireless technologies in a railway environment.
2 Wi-Fi and WiMAX Coexistence
WiFi and WiMAX standards are defined in more than one frequency band. The main
features of the two technologies are summarized in Table 1. The IEEE 802.11
specification includes a family of standards based on the Carrier Sensing Multiple
Access with Collision Avoidance (CSMA/CA) mechanism, according to which WiFi
terminals must listen to the channel and wait until it is sensed idle before attempting
transmission [1]. In this paper, the 802.11a amendment will be considered, which
employs Orthogonal Frequency Division Multiplexing (OFDM) in the 5 GHz band.
The OFDM signal is
comprised by a group of closely-spaced frequency subcarriers (48 data subcarriers
and 4 pilots with a 0.3125 MHz separation, in the case of 802.11a). The input data
flow is divided in low rate streams and each stream is mapped onto a sub-carrier using
one of four possible modulations (BPSK, QPSK, 16-QAM and 64-QAM), yielding
data transmission rates that range from 6 to 54 Mbps. Additionally, IEEE 802.11n
defines MIMO support with one to four antennas that can achieve a throughput up to
600 Mbps. WiMAX is mainly intended for point-to-multipoint scenarios in which an
Access Unit (AU) serves a number of subscriber units (SU). Even though the IEEE
802.16 specification defines several physical layer implementations, the main channel
access method of WiMAX is Time Division Multiplexing (TDM) / Time Division
Multiple Access (TDMA). Both Time and Frequency Division Duplex schemes (TDD
and FDD, respectively) are supported for the uplink and downlink channels, although
the first method is more widely used to reduce the hardware implementation. This
paper will study the coexistence between the two wireless technologies, Wi-Fi and
WiMAX in the 5 GHz band. As indicated in [2, 3], coexistence scenarios can be
generally classified in two categories: proximity and collocation. Proximity refers to
the case in which a different wireless technology operates simultaneously on separate
devices that, while being physically separated, are located close enough to interfere
with each other. Collocation is related with simultaneous operation of multiple radios
on the same hardware device. In this case, interference is not only due to the RF
radiation but also can be a result of conducted interference due to physical contact in a
conductive medium. In general, mutual interference between two technologies
operating in closely spaced frequency channels is mainly due to three mechanisms:
Spurious emissions of a transmitter in adjacent bands due to imperfect filtering, which
cause an increase in Adjacent Channel Power (ACP). In the second mechanism, the
Receiver is blocked under the presence of a strong interfering signal. As the result, the
wanted signal is received attenuated or may not be well received. Finally, Third-order
inter-modulation products of interfering transmissions that fall within the frequency
channel of the wanted signal.
74
I Encuentro de Investigadores en Infraestructuras Inteligentes
In this paper we will focus on the measurement of the ACP due to spurious
transmissions. In practice, the effects of interference can be manifested as degradation
in throughput or as a limitation of the coverage range. Apart from these physical layer
impairments, the operation of upper layers may also be affected. For example, an
increased interference level may be misinterpreted by the 802.11 CSMA/CA
mechanisms as channel activity, thus forcing the Wi-Fi device to defer transmission
for a considerable amount of time. The experimental setup and the performance
metrics employed to measure these effects of coexistence interference will be
discussed in the following section.
3 Case Study
Two experimental setups will be considered in order to study the Wi-Fi/WiMAX
coexistence and determine how the simultaneous operation of the two technologies in
close frequency bands affects their performance. The first scenario considers the
performance of Wi-Fi and WiMAX operating independently. We perform
interference measurements based on the total maximum and average channel power in
the WiMAX 5.7 GHz band with the use of a signal analyzer that was connected in the
WiMAX port through a system of diplexer filter. The second scenario considers the
interference of two wireless devices within a multi-radio platform. The setup is shown
in Fig. 1. On one side, a multi-radio platform is employed, which includes both a WiFi and a WiMAX transceiver sharing a single multi-band antenna. Each device is
connected to the antenna through a system of diplexer filters and a hybrid-combiner
coupler.
75
I Encuentro de Investigadores en Infraestructuras Inteligentes
Fig. 1. Setup Wi-Fi and WiMAX multi-radio platform for railway applications
The evaluation of the Wi-Fi/WiMAX coexistence performance is based on several
metrics: The average transmission power employed by each device on the
corresponding frequency band. Spurious transmissions of one device on the frequency
band of the other and the system throughput, defined as the total number of data bits
successfully transmitted per time unit. The Wi-Fi and WiMAX coexistence has been
evaluated through a set of experimental results. First, a parameter named Adjacent
Channel Power (ACP) defined as:
ACP (dB)= Padjacent_channel(dBm)– Poperation_frequency(dBm) (1)
where Poperation_frequency is the measured transmitted power by the wireless device
within the allocated frequency channel and Padjacent_channel is the measured unwanted
transmitted power by the same device on adjacent frequency sub-bands. In addition,
the WiMAX device is more likely to be affected by the interference than Wi-Fi, due
to its lower sensitivity level. The value of ACP in the WiMAX channel (5.7 GHZ)
was -76.87 dB in the case where there is no Wi-Fi interference. In tests can be clearly
seen that performance is significantly affected when the two systems coexist in close
frequency channels. Even with a frequency separation of approximately 500 MHz
(when Wi-Fi operates at 5.18 GHz and WiMAX at 5.7 GHz) throughput for both
technologies drops significantly, especially in the case of downlink where Wi-Fi and
WiMAX share a single antenna for data transmission. On the other hand, there are
cases where one technology (usually Wi-Fi) seizes the channel and blocks completely
the transmission of WiMax. To better illustrate the latter case, we have measured the
instantaneous throughput for UDP
downlink data transmission for Wi-Fi and WiMAX. In this case, WiMAX
performs better than Wi-Fi in general. However, the instantaneous throughput for
both technologies suffers from many fluctuations. In addition, when throughput drops
for one technology, it increases for the other. The simultaneous operation of Wi-Fi
and WiMAX technologies with shared infrastructure using a multi-radio platform
involves high interference levels that reduce the data rate performance despite the use
76
I Encuentro de Investigadores en Infraestructuras Inteligentes
of a system of diplexers and a hybrid combiner. A possible solution to mitigate the
ACP interference could be the definition of separated (as much as possible) sub-bands
within the operation bandwidth and even the use of a high selectivity pass-band filter
to reduce the interference effects between sub-band. A proper hybrid combiner design
should be addressed to achieve this goal. As a conclusion, better isolation between the
two technologies in the 5 GHz band, achieved by filtering and frequency separation
must be provided to alleviate the effects of interference and enable the coexistence.
References
1. IEEE Standard for Information Technology-Telecommunications and Information Exchange
Between Systems-Local and Metropolitan Area Networks-Specific Requirements - Part 11:
Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications,
IEEE Std 802.11-2007 (Revision of IEEE Std 802.11-1999), pp. C1--1184 (2007).
2. Waltho, A.: Performance Analysis and Design Considerations for Multi-Radio Platforms.
Intel Developer Forum, Taipei (2006).
3. Zhu, J., Waltho, A., Yang, X., Guo, X.: Multi-Radio Coexistence: Challenges and
Opportunities. In: Proceedings of 16th International Conference on Computer
Communications and Networks (ICCCN 2007), pp. 358--364 (2007).
77
I Encuentro de Investigadores en Infraestructuras Inteligentes
78
I Encuentro de Investigadores en Infraestructuras Inteligentes
WHISNU
Plataforma abierta de bajo coste para Infraestructuras
Inteligentes
Saturnino Maldonado, Jesús Ranz Abad
Cátedra para la mejora de la Autonomía Personal
de Telefónica en la Universidad de Alcalá (CAPTA)
Edificio Politécnico, S101, Campus Externo
Alcalá de Henares
[email protected], [email protected]
Abstract. Las infraestructuras Inteligentes son hoy en día, por diversas razones,
un recurso inaccesible para la mayor parte de la población. Sin embargo, serían
una gran aportación para resolver muchas de las cuestiones que más nos
preocupan en la actualidad. WHISNU es una plataforma abierta de bajo coste y
gran flexibilidad que puede proporcionar aplicaciones de alto nivel, sistemas de
supervisión y control, sistemas de gestión de infraestructuras y plataformas de
sensorización a muy bajo coste basándose en el desarrollo colaborativo, el
código abierto y la producción a media escala. Técnicamente hablando sus
aplicaciones directas caen en primera instancia dentro del ámbito de actuación
de la automatización, las infraestructuras inteligentes y la domótica. Sin
embargo, como consecuencia directa de la anterior, puede generar un enorme
beneficio en la mejora de la Autonomía Personal, el control energético o la
sostenibilidad medioambiental.
Keywords: Domotica, Sensores, Energía, Automatización, Sostenibilidad,
Autonomía Personal, Infraestructuras Inteligentes
1
Introducción
Los últimos años del siglo XX y la primera década del XXI han sido el escenario
de la incorporación de todo tipo de tecnologías que han abierto un nuevo mundo de
posibilidades. Además, la mayor parte de ellas se han incorporado en nuestra sociedad
a una velocidad nunca vista hasta este momento, llegando a convertir en obsoletas
soluciones que pocos años antes eran consideradas vanguardistas.
Sin embargo, en este entorno en constante evolución, las construcciones de
viviendas en general y los sistemas para la automatización de las mismas (Domótica)
en particular parecen completamente estancados y su evolución, pese a considerarse
prometedora, nunca ha llegado siquiera a iniciar una senda de despegue que las
convirtiese en un bien o servicio de consumo ampliamente utilizado. Todo ello pese a
las innumerables mejoras que pueden aportar a la calidad de vida y el medio
ambiente.
79
I Encuentro de Investigadores en Infraestructuras Inteligentes
Las razones por las que los sistemas de automatización de viviendas no se han
generalizado resultan todavía más enigmáticas si consideramos que, en la última
década, la industria de la construcción en España se convirtió en uno de los pilares de
la economía nacional y los recursos financieros fluían con gran facilidad hacia todo lo
relacionado con ella.
El elevado coste de cualquier instalación podría explicar, en buena medida, esta
retracción del mercado a su incorporación. Este coste está generado, entre otras
razones, por la inexistencia de una estandarización de dispositivos así como de la
consideración de los mismos como subproductos industriales en lugar de electrónica
de consumo. Estando su desarrollo y fabricación en manos de los grandes proveedores
de equipos para la industria y no en el de los productores de equipos de consumo no
se ha producido en ningún momento la economía de escala suficiente para poder
adquirirlos a un precio asumible en comparación con el beneficio esperado en su
implantación.
Por todo lo anterior, la no automatización (o domotización) de viviendas o
pequeñas infraestructuras ha significado la renuncia de la inmensa mayoría de la
población, al cuidado inteligente de sus ancianos y niños, a contribuir a la
sostenibilidad, a un buen grado de confortabilidad, al control de inventarios o, entre
otras muchas cosas, a la seguridad integral de sus hogares.
Siendo todo lo anterior incomprensible en una sociedad que tiene como valores
fundamentales muchos relacionados con lo anterior, resulta aun más increíble la
pérdida de oportunidad en la creación de todo tipo de servicios que podrían estar
siendo realizados sobre la base de sistemas inteligentes en los hogares y pequeñas
empresas españolas.
2 Arquitectura General
El proyecto conjunto consiste en el diseño y construcción de un conjunto de servicios,
herramientas y dispositivos (en adelante llamados Plataforma) que faciliten una rápida
generalización de infraestructuras inteligentes entre todos los estratos de la población.
Sobre esta plataforma se podrá construir todo un ecosistema de servicios que,
incrementando la calidad de vida a sus habitantes, contribuya a mejorar su huella
ecológica.
La plataforma estará compuesta por cuatro grandes capas:
[A] Servicios: Aplicaciones de alto nivel gestionadas por empresas o instituciones
que presten servicios de valor añadido a las infraestructuras gestionadas y sus
usuarios o supervisen sus condiciones médicas si la finalidad de la instalación es la
supervisión humana.
[B] WhisnuNet: Aplicativos y sistemas de información que centralicen todas aquellas
funciones que por su naturaleza no tiene sentido económico o técnico implantar en las
viviendas inteligentes.
[C] Whisnu: Sistema de gestión local que, instalado en las pequeñas y medianas
infraestructuras, permita realizar la gestión de todos los dispositivos sensores y
80
I Encuentro de Investigadores en Infraestructuras Inteligentes
actuadores y realice todas aquellas funciones de supervisión, control y alarma que
tengan sentido realizarse a este nivel. Además, servirá de sistema de mediación
(middleware) entre todas las tecnologías comerciales existentes en la actualidad
facilitando su incorporación cuando se considere oportuno y proporcionará un
conjunto de herramientas y librerías que faciliten el desarrollo y distribución de todo
tipo de aplicaciones y la fácil integración de sistemas audiovisuales.
[D] Sensac: Plataforma de sensores y actuadores inalámbricos integrados (DWEB)
así como de micro sensores y actuadores de muy bajo coste (ULCRA) que permitan
con muy poca inversión, conocimiento y esfuerzo realizar un despliegue autónomo de
un sistema de control inteligente de una vivienda. Su concepción permite tanto la
realización de placas electrónicas con aplicaciones cerradas como el desarrollo de
software aplicado a infraestructuras específico que podrá ser instalado con suma
facilidad en las placas DWEB. Estas plataformas podrán coexistir con cualquiera de
los protocolos y soluciones existentes en el mercado mediante la integración de
drivers de acceso en Whisnu.
Mientras las dos capas superiores quedan en el ámbito de la gestión empresarial,
los proyectos de CAPTA (WHISNU1, DWEB2 y ULCRA3) se concebirían como
proyectos de Hardware y Software libre abiertos a toda la comunidad buscando su
rápida aceptación y fijando precios de producción extremadamente bajos (4€ para los
sensores/actuadores ULCRA y 20€ para las placas de múltiples sensores embebidos
DWEB). El proyecto WHISNU es básicamente software que se instala sobre una
plataforma LINUX que podría ser un PC industrial con un coste aprox. de 200€.
WHISNU centraliza la información la información y actuaciones y además permite la
comunicación con el mundo exterior.
1
WHISNU: Diosa Balinesa de Protección del Hogar
DWEB: Domo Wireless Embedded Board
3 ULCRA: Ultra Low Cost Remote Appliance
2
81
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Conclusiones
Ninguna de las propuesta anteriores, estudiada aisladamente, representan una
innovación tecnológica de primer orden ni representa un avance significativo sobre
otros dispositivos equivalentes que pueden encontrarse hoy en el mercado. El
verdadero valor de la propuesta reside en el carácter “abierto” y “global” de la misma
lo que posibilitará la rápida incorporación de todo tipo de agentes interesados en su
desarrollo y, al igual que ocurrió en otros casos de éxito como el sistema operativo
Linux, fomentará su rápida extensión. Este proyecto pone a disposición de
instituciones y particulares elementos de muy bajo coste sobre los que construir
grandes servicios para sus necesidades, que desde CAPTA estamos focalizando en la
ayuda para la mejora de la autonomía personal.
Con el proyecto se pretende, utilizando técnicas de marketing viral, una rápida y
abierta generalización de este tipo de dispositivos para construir la masa crítica
necesaria que permita la introducción de servicios de valor añadido.
En el ámbito de su aplicación podemos encontrar utilidad como:
[*] Instrumento para la mejora la calidad de vida y autonomía de personas en
situación de dependencia o baja autonomía personal (Diversidad Funcional,
Personas Mayores o menores de edad)
[*] Plataforma completa e integrada para instalaciones domóticas de cualquier tipo
y para automatización de otras infraestructuras de mayor complejidad.
[*] Plataforma de infraestructuras inteligentes es directamente utilizable en la
mejora de la eficacia y sostenibilidad medioambiental y energética y, en
consecuencia, a la generación de Ciudades Sostenibles.
[*] Plataforma de sensores de bajo coste es aplicable a cualquier proyecto de
sensorización y control.
[*] Plataforma de divulgación y formación en infraestructuras inteligentes.
[*] Plataforma de gestión a pequeña escala de energías renovables en el entorno de
la pequeña y mediana infraestructura.
4 Referencias
1.
2.
3.
4.
Mobile Pervasives Computer Research, Dr. Sumi Helal. http://www.icta.ufl.edu/
Berkeley Wireless Embbebed Systems. http://smote.cs.berkeley.edu
CENS.Center for Embbebed Networking Systems. http://research.cens.ucla.edu/
Sohraby, K., Minoli, D., Znati, T. "Wireless sensor networks: technology, protocols, and
applications, John Wiley and Sons", 2007 ISBN 978-0-471-74300-2
5. Tiwari, Ankit et. al, Energy-efficient wireless sensor network design and implementation for
condition-based maintenance, ACM Transactions on Sensor Networks (TOSN)
6. Römer, Kay; Friedemann Mattern (December 2004), "The Design Space of Wireless Sensor
Networks",
IEEE
Wireless
Communications
11
(6):
54–61,
doi:10.1109/MWC.2004.1368897
82
I Encuentro de Investigadores en Infraestructuras Inteligentes
Smart Cities. Eu & PEOPLE.
Miguel Ruiz , Ricardo Buendía, Rafael Salamanca, José Ángel Álvarez
Anova IT Consulting, Avda. Punto Mobi, 4. Parque Científico Tecnológico de la
Universidad de Alcalá., 28805 Alcalá de Henares. Madrid. España
Miguel Ruiz , Ricardo Buendía, Rafael Salamanca, José Ángel Álvarez
[email protected]
Resumen: El presente artículo muestra una situación actual de la evolución de
las iniciativas europeas dentro del concepto de ciudades “inteligentes” así como
una visión de los retos y desafíos a los que las mismas se enfrentan y la
contribución realizada por Anova IT Consulting dentro de los proyectos
europeos.
Keywords: Smart Cities, Living Labs, Test beds, Urban development, Future
Internet, ICTs.
1 Situación actual y desafíos a futuro.
Crecimiento sostenible, mejora de la calidad de vida, inversión en capital humano y
social, infraestructuras, tecnología, transporte y comunicaciones, son conceptos
asociados a las ciudades inteligentes. Sin embargo, el eje central de las mismas somos
nosotros, la razón de ser de toda ciudad inteligente es ser una ciudad para sus
ciudadanos.
La ciudad se configura como centro del ecosistema social. Ello implica, nuevos
desafíos y amenazas que comprometen la sostenibilidad de las mismas. La necesidad
de hacer frente a unas capacidades y recursos escasos, hacen necesario el desarrollo de
tecnologías, que permitan instrumentar, interconectar y optimizar tanto el uso de las
infraestructuras existentes, como el desarrollo de nuevos servicios.
A fin de aprovechar dichas oportunidades y construir una prosperidad sostenible es
necesario que las ciudades se conviertan en "inteligentes".
Dicho concepto representa un cambio revolucionario que implica el necesario
conocimiento de los sistemas en los que están basadas y la interrelación que se
produce entre los mismos.
Las ciudades están basadas en diferentes sistemas, infraestructuras, redes y entornos
siendo necesario conocerlos desde una perspectiva integral. Servicios, transporte,
comunicaciones, agua, energía, determinan la eficacia y eficiencia de su
83
I Encuentro de Investigadores en Infraestructuras Inteligentes
funcionamiento. El rendimiento de dichos sistemas básicos es fundamental para el
progreso social y económico de las mismas.
Los ciudadanos y las empresas dependen de dichos elementos tanto para la
realización de sus actividades cotidianas como para su propio bienestar. Por ello las
mejoras o interrupciones de los servicios en el transporte, las comunicaciones o los
sistemas de suministro, tienen un impacto drástico en dichas actividades.
Incorporar Inteligencia a dichos elementos permite la generación de nuevos
servicios y aplicaciones que aporten valor añadido a la labor esencial para la que los
mismos fueron diseñados. Mejorando la calidad de vida de los ciudadanos y
facilitando sus actividades diarias.
Es a través de los avances tecnológicos como las ciudades pueden comprender,
mejorar y controlar su funcionamiento y desarrollo. Aspectos que anteriormente era
imposible medir están siendo digitalizados de manera creciente creando nueva
información acerca de la eficiencia de los servicios que en las mismas se prestan.
A su vez, los nuevos modelos de interconexión entre los diferentes sistemas
permiten que la información fluya a través de los mismos generando vínculos entre los
datos, y las personas, en formas que anteriormente no eran posibles.
La evolución de los sistemas de información está permitiendo la creación de
servicios en base a los datos recibidos, generando una inteligencia colectiva de la que
se derivará una mejor coordinación y comunicación en la ciudad.
Nuevos algoritmos y modelos de análisis permitirán generar análisis predictivos,
combinados con el incremento de la capacidad de cálculo y almacenamiento,
convertirán dichas fuentes de conocimiento en inteligencia.
Como resultado, permitirán iluminar las interacciones entre los diferentes sistemas,
dando a los líderes una mejor comprensión de lo que sucede en sus ciudades que se
derivarán en acciones eficaces y estrategias que permitirán optimizar y desarrollar
nuevos modelos de crecimiento.
Mediante la digitalización e instrumentación de los sistemas de la ciudad la
información obtenida será utilizada para tomar decisiones informadas e inteligentes
que generen un desarrollo y crecimiento sostenible de las ciudades.
2 Smart Cities y Europa.
La Unión Europea ha puesto en marcha una ambiciosa agenda digital dirigida a la
consecución de un futuro mercado único digital para Europa soportado en conceptos
como la apertura y la inter-operatividad, la confiabilidad y la seguridad online, acceso
84
I Encuentro de Investigadores en Infraestructuras Inteligentes
universal e inclusión digital, servicios públicos digitales y la innovación e
investigación en tecnologías de internet y de las comunicaciones.
En este contexto, las ciudades inteligentes ofrecen una excelente infraestructura para
la investigación e innovación basadas en internet debido a la disponibilidad de banda
ancha, la existencia de grupos de investigación locales y la disponibilidad de
infraestructuras ya en funcionamiento.
La Unión Europea soporta, a través de sus programas de innovación e investigación
[Séptimo Programa Marco, CIP (Competitiveness and Innovation Framework
Programme) y el ICT PSP (ICT Policy Support Programme)], un amplio rango de
iniciativas centradas en el desarrollo de las ciudades inteligentes.
Dentro de la iniciativa CIP se está desarrollando un programa de 7 proyectos
enfocados al desarrollo de servicios centrados en el ciudadano y basados en
tecnologías de internet innovadoras. Estos proyectos tienen diferentes enfoques:
SMART IP y PEOPLE (Servicios para los ciudadanos), EPIC (infraestructura para
el desarrollo y despliegue de servicios), PERIPHERIA y LIFE 2.0 (interacción
social), OPEN CITIES (innovación abierta centrada en el usuario en el sector
público), SMART ISLAND (sinergias geográficas).
Todos los proyectos comparten objetivos comunes tales como la aplicación de
metodologías de innovación centradas en el usuario, el uso de tecnologías de internet
innovadoras, acelerar el desarrollo y despliegue de servicios no solo a nivel local sino
a nivel Europeo.
Estas iniciativas permitirán la implantación de tecnologías innovadoras, como redes
de sensores e Inteligencia Artificial para la obtención de servicios avanzados en las
ciudades entre los que se pueden destacar:
Energía: Smart Grids, sistemas de medición inteligente, energías renovables,
vehículos eléctricos, sistemas de almacenamiento, respuesta adaptativa a la demanda
y equilibrio de la red. Transporte: Movilidad sostenible, sistemas avanzados de
transporte público, gestión inteligente del tráfico y fomento de transportes
alternativos. Comunicaciones: Banda ancha, banda ancha móvil, LTE, Wi-fi.
Negocios: Nuevos procesos inteligentes, integración de las tecnologías de la
comunicación e información, desarrollo de sectores tecnológicos. Servicios: egoverment, salud, educación, seguridad pública.
3. PEOPLE
Dentro del programa Europeo CIP de proyectos Innovadores, Anova IT Consulting
lidera el proyecto PEOPLE.
85
I Encuentro de Investigadores en Infraestructuras Inteligentes
PEOPLE tiene por objetivo acelerar el desarrollo de las ciudades inteligentes a
través de una rápida implantación, despliegue y explotación de servicios innovadores,
basados en Internet para afrontar los desafíos presentes y futuros que emergen en las
ciudades desarrolladas, creando infraestructuras, recursos, metodologías de
innovación abiertas y procesos que faciliten el desarrollo de servicios ICT adaptados a
las características locales
.En la ejecución de este proyecto intervienen entidades públicas y privadas de
España, Francia, Grecia y Alemania involucrando también en la parte experimental a
los Ayuntamientos de Bilbao, Vitry Sur Seyne (Paris), el campus universitario de
Bremen y la Municipalidad griega de Thermi.
En estos pilotos desarrollan diferentes escenarios que incluyen servicios
relacionados con la movilidad (tráfico y transporte público), medioambiente,
seguridad, safety, servicios turísticos, comerciales, administración electrónica y
servicios de inclusión social y, en general, servicios orientados a mejorar la calidad de
vida de los ciudadanos.
Estos servicios se desarrollarán y validarán, utilizando técnicas de innovación
abierta centrada en el usuario.
Los pilotos están interconectados con el objeto de explotar sinergias y ofrecer la
posibilidad de despliegue de servicios de unos pilotos en otros dentro del proyecto
La identificación y explotación de sinergias está también contemplada a nivel de
programa con los otros 6 proyectos anteriormente mencionados.
Ello permitirá la creación de un ecosistema experimental, en red, sobre el que se
despliegan, validan y explotan servicios basados en tecnologías de internet a la vez
que se crea un marco metodológico que define el uso de ese ecosistema para la
validación y puesta en marcha de servicios adaptados a las características locales del
entorno.
4. ADDPRIV
Dentro del FP7, Anova IT Consulting lidera el proyecto ADDPRIV. El proyecto
pretende fomentar los servicios basados sistemas inteligentes de videovigilancia,
mediante la aplicación de técnicas de Inteligencia Artificial y tratamiento de
imágenes.
Conscientes del gran potencial que aporta este campo a los servicios a los
ciudadanos y a su vez las reticencias y rechazos que producen en la ciudadanía nace el
proyecto ADDPRIV, promovido y liderado por Anova IT Consulting, busca hacer que
la videovigilancia y la Privacidad sean compatibles.
86
I Encuentro de Investigadores en Infraestructuras Inteligentes
El proyecto ADDPRIV está cofinanciado por la unión europea a través del VII
Programa Marco FP7-SEC-2010-1, Objetivo SEC-2010.6.5-2 y además de Anova IT
Consulting participan universidades como la Kingston University (UK), Politechnika
Gdanska (Poland), Lancaster University (UK), Trinity College (IE) o empresas como
HP (IT), Avanzit Tecnología (ES), Renfe Operadora (ES), SEA Aeroporti di Milano
(IT) pretende mejorar la seguridad ciudadana velando por los derechos de privacidad
de las personas, enriqueciendo los sistemas actuales de videovigilancia con algoritmos
de detección inteligente que permitan categorizar las imágenes en cuanto a la
seguridad y la privacidad de las mismas. Igualmente los criterios de categorización no
se basan sólo en la información recibida por cada una de los puntos de video sino que
incorpora para su decisión la información recibida por el resto de cámaras de su área
de influencia.
Ello permite determinar de manera automática, precisa y fiable qué información es
relevante desde la perspectiva de la seguridad y cuál no lo es para de esta forma
realizar un almacenamiento Inteligente y proceder a un borrado seguro de aquella
información que deba ser eliminada, permitiendo reducir de este modo la cantidad de
almacenamiento requerido y proteger el derecho a la privacidad de los ciudadanos
dando acceso sólo a los agentes que dispongan de las autorizaciones requeridas para
su visualización.
87
I Encuentro de Investigadores en Infraestructuras Inteligentes
88
I Encuentro de Investigadores en Infraestructuras Inteligentes
CoSGrid: Una plataforma de servicios orientada a
objetos para Smart Grid
D. Villa, C. Martín, F.J. Villanueva, Francisco Moya y Juan Carlos López
Grupo Arco, Escuela Superior de Informática, Universidad de Castilla-La Mancha,
Paseo de la Universidad 4, 13071, Ciudad Real
{david.villa,cleto.martin,felixj.villanueva,
francisco.moya,juancarlos.lopez}@uclm.es
http://arco.esi.uclm.es
Resumen El presente trabajo presenta una plataforma para el desarrollo de servicios en las redes inteligentes de distribución de energía eléctrica (conocidas
como smart grid). Es una propuesta basada en computación distribuida heterogénea, gracias a un middleware de comunicaciones orientado a objeto. Se propone
un modelo de información para el modelado de servicios básicos y un dispositivo
que puede ser acoplado incluso a cargas individuales otorgándoles interoperabilidad completa dentro del sistema.
1.
Introducción
El interés creciente por la gestión avanzada de infraestructuras de transporte de energía, gas, agua, etc. está impulsando el desarrollo de tecnologías de soporte en diversas
áreas relacionadas con las comunicaciones y los sistemas de información. La smart grid
persigue una gestión continua y eficiente de la energía y/o recursos que ofrece la empresa suministradora y de su red de distribución. De ese modo se simplifican en gran
medida las tareas de logística, facturación y mantenimiento, y también se mejora el
desempeño de la propia red de distribución.
Este trabajo ofrece una solución integradora para los diversos problemas de comunicaciones (en todas sus facetas) que aparecen en la smart grid, haciendo especial
hincapié en la heterogeneidad y en la necesidad de escalabilidad inherentes a este tipo
de infraestructuras.
El sistema de comunicaciones se basa en el uso de un middleware orientado a objetos. Bajo este enfoque, todos los componentes del sistema sin excepción, y sus capacidades, se ofrecen mediante el paradigma de la orientación a objetos, un aspecto clave
en la construcción de grandes sistemas de información en las dos últimas décadas.
Uno de los componentes clave de la propuesta es un dispositivo electrónico: el Embedded Metering Device, diseñado para ser acoplado al sistema que se desea gestionar.
Aunque la plataforma es aplicable a cualquier tipo de red de distribución, nuestros prototipos actuales están orientados a la gestión de equipos eléctricos. Asumiendo que ese
el contexto, el sistema gestionado puede ser una vivienda u oficina, pero también un
electrodoméstico individual, un punto de luz o una simple toma de corriente mural. El
EMD proporciona un medio sencillo y de bajo coste (en el caso de cargas simples) para
89
2
D. Villa, C. Martín, F.J. Villanueva, Francisco Moya y Juan Carlos López
I Encuentro de Investigadores en Infraestructuras Inteligentes
ofrecer su funcionalidad al sistema. De ese modo, cualquier electrodoméstico, iluminación, máquina eléctrica o cualquier otro aparato presente en el entorno doméstico o
industrial puede inmediatamente formar parte de la smart grid.
CoSGrid (Controlling the Smart Grid) ofrece las capacidades habituales en un AMI
(Advanced Metering Infrastructure) que normalmente están relacionadas con la medición de consumo, tensión y otras magnitudes importantes en la red eléctrica [2]. Sin
embargo, CoSGrid proporciona además servicios de control para los dispositivos gestionados (principalmente activación/desactivación de cargas) incluso en el caso de las
más simples.
Entre los trabajos previos relacionados se pueden destacar FREEDM System [3]
especialmente orientado a micro-grids o ZAMI [4] basado en la tecnología Zigbee.
2.
Una plataforma para gestión de energía
El objetivo principal es construir una plataforma que facilite la creación de servicios
avanzados para gestión de energía en la smart grid por terceras partes. Para lograrlo es
necesario proporcionar una serie de interfaces y servicios básicos que otros puedan utilizar y componer para crear servicios especializados o de más alto nivel con el mínimo
esfuerzo.
Tomando como punto de partida el paradigma de la computación distribuida orientada a objetos, se ha definido un modelo de información común que será empleado por
todos los componentes del grid. Con ello se consigue homgeneidad de acceso, a la vez
que el middleware, al imponer un protocolo de aplicación común, ofrece uniformidad
en el formato de los mensajes y eventos.
Aunque lograr este tipo de homogeneidad es relativamente sencillo en sistemas de
cómputo tradicionales, en este caso estamos hablando de un entorno en el que, además de los computadores de la compañía, los dispositivos gestionados participan en
el sistema de igual a igual, hasta el punto de que no será posible para unos componentes averiguar si el servicio que está consultado es un computador convencional o
electrónica integrada en un electrodoméstico. Conseguir que los fabricantes integren
esta tecnología en sus aparatos es algo realmente complicado. Por ese motivo, hemos
desarrollado el EMD, que puede conectarse a una línea de baja tensión (en el propio
cuadro de registro) o incluso se puede conectar a un simple enchufe mural en su versión
más sencilla.
Conseguir que todos los componentes compartan un modelo de información basado
en interfaces no solo facilita la interacción entre las partes y simplifica el desarrollo de
aplicaciones. Además hace posible establecer relaciones lógicas entre los componentes
para crear servicios reactivos no triviales de un modo sorprendentemente sencillo.
Resumiendo, los componentes más importantes de la plataforma propuesta son: El
middleware de comunicaciones, el modelo de información, el EMD y un conjunto de
servicios básicos de la plataforma.
2.1.
Middleware de comunicaciones
CoSGrid está basado en un middleware de comunicación orientado a objetos de
propósito general. CORBA, .Net Remoting o Java RMI son algunos de los más cono-
90
CoSGrid: Una plataforma de servicios orientada a objetos para Smart Grid
I Encuentro de Investigadores en Infraestructuras Inteligentes
3
cidos comercialmente. Estos middlewares proporcionan una colección de herramientas
que simplifican sensiblemente el desarrollo de aplicaciones distribuidas, a la vez que
ofrecen un protocolo de aplicación genérico para la invocación de métodos de objetos
remotos. Con ello se garantiza homogeneidad en el transporte de datos independientemente del lenguaje de programación o plataforma de cómputo.
2.2.
Modelo de información
El modelo de información propuesto se basa en un conjunto de interfaces. Concretamente se trata de interfaces escritas en el lenguaje de especificación de interfaces de
ZeroC Ice, el middleware que actualmente utilizamos en nuestros prototipos.
Se proporcionan interfaces para varios propósitos independientes, pero que pueden
confluir en el mismo dispositivo:
Medida Se proporcionan interfaces para medida de energía, tensión, corriente y potencia. También es posible averiguar si un dispositivo está conectado (circulación de
corriente) en un momento dado.
Control Se proporcionan interfaces que permiten conectar/desconectar una carga o línea y averiguar en qué estado se encuentra.
Agrupación Permite definir grupos de objetos (que representan dispositivos) de modo
que se puedan organizar por criterios arbitrarios.
Composición La composición permite crear dispositivos virtuales que representan el
valor de un grupo de objetos mediante una función de agregación, por ejemplo, el
valor de corriente máximo ocurrido en una instalación, o el consumo medio a lo
largo de un día.
2.3.
EMD
El EMD (Embedded Metering Device) gestiona el smart meter asociado al dispositivo gestionado. Encapsula el acceso a los sensores (que miden las magnitudes eléctricas)
y los actuadores (normalmente interruptores electrónicos o relés) y ofrece su funcionalidad al sistema como si se tratara de objetos distribuidos convencionales.
Cada EMD puede encargarse de gestionar uno o varios aparatos aunque, en cualquier caso, aparecerán como objetos individuales, con una identidad única. El EMD
es un dispositivo autónomo que puede interactuar directamente con los servicios o la
aplicación cliente. Esto es posible gracias al picoObjeto [1], la estrategia de implementación de objetos distribuidos para dispositivos empotrados más pequeña que existe y
que hace posible su implantación en algunos de los microcontroladores más pequeños
y baratos disponibles hoy día en el mercado.
Se proponen 3 tipos diferences de dispositivos EMD, dependiendo de sus capacidades y contexto de aplicación:
Gama baja Están diseñados para gestionar un único punto de luz o aparato eléctrico
individual. Implementa las interfaces de control y medida, aunque normalmente
será suficiente con equipos de medida muy básicos. Los requisitos computacionales
son muy bajos, un microcontrolador de 8 bytes con 4 kilo-palabras de memoria es
suficiente como hemos podido constatar en nuestros prototipos actuales.
91
4
D. Villa, C. Martín, F.J. Villanueva, Francisco Moya y Juan Carlos López
I Encuentro de Investigadores en Infraestructuras Inteligentes
Gama media El objetivo del EMD de gama media es gestionar una vivienda, departamento o unidad que pueda necesitar gestión independiente. Puede estar colocado
en el cuadro eléctrico. Los requerimientos de cómputo son mayores puesto que
necesitará hacer medidas precisas (de consumo al menos) y almacenar históricos.
También puede implementar las interfaces de composición para agregar los aparatos asociados a la línea o líneas que gestiona.
Gama alta Destinado a gestionar todo un edificio o instalación, normalmente sólo realizará medidas, ya sea directamente, por agregación o ambas. No se prevé que se
requiera control a este nivel.
2.4.
Servicios básicos
Como se ha indicado, la escalabilidad es uno de los problemas más graves de las
smart grid, debido al gran tamaño y volumen de mensajes que puede implicar cualquier
despliegue de consideración. Gracias al servicio de eventos habitual en muchos middlewares es posible plantear un modelo de comunicación con inyección (push). Es decir,
los dispositivos pueden programarse para emitir mensajes con las nuevas medidas o
eventos (alarmas o valores sospechosos) sin necesidad de que sean encuestados desde
las aplicaciones del proveedor. Esto constituye un gran ahorro en el ancho de banda
requerido.
Este modelo de objetos activos también posibilita la interacción directa entre dispositivos permitiendo, por ejemplo, que un sensor que detecta un sobreconsumo pueda
desactivar algunos aparatos para prevenir la sobrecarga de la línea, y todo ello sin la
intervención de un equipo remoto.
3.
Conclusiones
La smart grid presenta características muy similares a las aplicaciones distribuidas,
siendo la heterogeneidad y la escalabilidad algunas de las cuestiones más relevantes. La
aplicación de middlewares de comunicaciones distribuidos orientados a objetos puede
ayudar en gran medida a resolver muchos de estos problemas.
Referencias
1. F. Moya., D. Villa, F.J. Villanueva, F. Rincón, J. Barba, J.C. López Embedding Standard
Distributed Object-Oriented Middlewares in Wireless Sensor Networks, Journal on Wireless
Communications and Mobile Computing (WCMC), Mar 2009.
2. Han, Kook H.; Choi, Seung W.; Park, Byung C.; Lee, Jung J. An implementation of a wireless
sensor network-based meter reading system 7th ACM Conference on Embedded Networked
Sensor Systems, 2009.
3. Meng, Fanjun; Akella, Ravi; Crow, Mariesa L.; McMillin, Bruce Distributed Grid Intelligence
for future microgrid with renewable sources and storage, North American Power Symposium,
2010.
4. Tung, Hoi Y.; Tsang, Kim F.; Lam, Ka L. ZigBee sensor network for Advanced Metering
Infrastructure, International Conference on Consumer Electronics, 2010.
92
I Encuentro de Investigadores en Infraestructuras Inteligentes
Un nuevo concepto de ciudad: Eficiencia
Antonio Ruiz de Elvira1 , Rosa Cervera1 , Isabel Ordieres1 , Alberto Alarcón1
1
Grupo de Investigación Eco-Futuring, Universidad de Alcalá
Áreas de Interés: Eficiencia Energética, Ciudades Sostenibles, Movilidad, Energı́as
Renovables
Resumen. El grupo Eco-Futuring de la UAH presenta una serie de ideas de trabajo totalmente
factibles, en los campos de Eficiencia Energética, Movilidad, Ciudades Sostenibles y Energı́as
Renovables. Estas ideas, que forman parte de su programa de investigación, pueden ser desarrolladas y puestas en funcionamiento en un plazo de no más de tres años a partir del comienzo de
su estudio.
Palabras Clave: Eficiencia Energética, Movilidad, Ciudades Sostenibles, Energı́as Renovavbles
1 Introducción
El Grupo de Investigación Eco-Futuring desarrolla ideas y proyectos alrededor de un
concepto básico: El gasto energético se realiza en un 70 % en las ciudades y entre las
ciudades, sobre todo en los paı́ses desarrollados. La razón es que ciudades y redes de
ciudades ni siquiera se diseñaron, sino que surgieron y se desarrollaron por razones
totalmente ajenas a las consideraciones energéticas y de tiempo. Hoy estamos viviendo
la consecuencia de unas hipótesis absolutamente distintas de la realidad actual.
La ciudad se creó como almacén de energı́a (en forma de granos), amurallada para la
protección de éstos y de las personas que los producı́an. Posteriormente la ciudad se
utilizó para permitir el desarrollo de actividades artesanales, que derivaron en industriales, y como lugar de reunión de grupos de personas (Senados, Asambleas, Cofradı́as,
....)
Una idea básica de la ciudad es su interconectividad. Y una idea que sobra hoy dı́a es la
de almacén amurallado. La necesidad básica del ser humano es la del contacto con otros,
e incluso la del contacto fı́sico directo, que no tiene que ser exclusivamente táctil, sino
que integra todo el conjunto de señales auditivas, visuales y olfativas. Este contacto
es, de momento, imposible implementarlo mediante telecomunicación. Mientras siga
siendo imposible es preciso reunir a las personas en espacios reducidos.
93
I Encuentro de Investigadores en Infraestructuras Inteligentes
La ciudad debe, pues, servir para conectar personas, moverlas a lugares de reunión (centros de enseñanza, centros de trabajo reducidos, centros de distribución de mercancı́as
o tiendas, y centros de ocio), mantener un esquema de suministro de mercancı́as, y
permitir un reciclaje rápido, fácil y barato de productos de deshecho.
Al mismo tiempo la ciudad debe permitir el disfrute de la propiedad privada y el contacto con la naturaleza, aunque sea ésta domesticada: Es preciso hacer a las personas
oı́r a los pájaros y ver crecer rosas y hierba.
Todo esto debe realizarse con un mı́nimo de disipación energética, de empleo de tiempo
y de gasto de riqueza.
Es ese un problema de minimización condicional bastante complicado pero factible, y
es sobre ésto sobre lo que trabaja el Grupo Eco-Futuring.
2
IDEAS
a.- Diseño de un ı́ndice de eficiencia (energı́a, tiempo, gasto).
b.- Trabajo en ciudades pre-existentes.
b1.- Estudio de interconectividad y permeabilidad.
b2.- Diseño de esquemas de interconectividad.
b3.- Indice de eficiencia para esos esquemas.
b4.- Utilización de la telemática para incremento de interconectividad.
b5.- Diseño de redes.
b5.1.- Análisis geométrico topológico de los nodos de la red.
b5.2.- Detección de puntos de acumulación (embudos).
b5.3.- Diseño para la eliminación de puntos de acumulación mediante aumento de conexiones de red.
c.- Estudio de redes metropolitanas
c1.- Distribución de funciones ciudadanas en los nodos de la red.
c2.- Interconectividad virtual mediante telemática.
c3.- Esquemas de interconectividad fı́sica rápida:
c3.1.- Transporte común no masivo pero muy ramificado.
c3.2.- Intercambios modales rápidos. Ej: De bicicleta a tranvı́a a tren en menos de 1 minuto cada cambio.
c3.3.- Conectividad NO radial, sino a través de las cuerdas de circumferencias
(u otras figuras geométricas de la ciudad).
c3.4.- Interconectividad al segundo vı́a información telemática móvil y personal. Una central debe proporcionar la ruta para la máxima eficiencia.
94
I Encuentro de Investigadores en Infraestructuras Inteligentes
d.- Transporte de mercancı́as
d1.- Transporte automatizado mediante contenedores sobre trenes eléctricos de superficie.
d2.- Reparto automatizado en centros logı́sticos controlados de manera telemática.
d3.- Mini-reparto mediante tuberı́as subterráneas de muy bajo coste de construcción.
e.- Sostenibilidad y medio ambiente
e1.- Depuración de aguas mediante cauces abiertos oxigenados inter-metropolitanos.
e2.- Construccion (Rehabilitación) de edificios mediante materiales reciclables.
e3.- Integración de naturaleza domesticada dentro de los nodos de la red
metropolitana y entre los mismos.
f.- Incorporación integral e integrada en edificios (elementos arquitectónicos)
de energı́as solares de todos los tipos: Fotovoltaica, térmica (Stirling), microeólica, biológica.
f1.- Incorporación de energı́as renovables a escala de barrio a modo de factorı́as energéticas en el interior de la ciudad.
f1.1.- Granjas solares en el interior de la ciudad.
f1.2.- Sistemas combinados de energı́as limpias para generar energı́a de
barrio: soluciones arquitectónicas y urbanas.
f2.- Esquemas de almacenamiento de energı́as solares: Geotermia para la
solar térmica.
f3.- Esquemas de almacenamiento de energı́as solares: Baterı́as y vehı́culos
para la fotovoltaica y la mini-eólica.
3
Metodologı́a y Experiencia
Las ideas se desarrollarán mediante mediante toma y recopilación de datos, modelos
de ordenador y modelos fsicos a escala, siempre que exista financiación para ello, y en
estrecho contacto con empresas interesadas.
El Grupo de Investigación esta gestionando en la actualidad una Acción Complementaria para el establecimiento de una Red Internacional de Investigadores con el nombre
Red de Estructuras de Movilidad para Ciudades Eficientes (REMCE) financiada por el
MICINN, a la que pertenecesn investigadores españoles, ingleses, alemanes, rumanos
americanos y de India y de China, con perfiles desde arquitecto hasta lingüista, pasando
por fı́sicos, matemáticos, ingenieros, y ambientalistas.
Dos de sus miembros estn trabajanado en un Proyecto de Investigación (VIDA) del
Programa CENIT financiado por el CDTI, sobre el uso de sistemas biológicos para la
producción de energı́a dentro de las ciudades.
95
I Encuentro de Investigadores en Infraestructuras Inteligentes
4
Bibliografı́a
La bibliografı́a es tremendamente amplia pues los temas a tratar abarcan desde diseño
de edificios a ciudades a transporte inter-ciudades a la matemática de las redes, topologı́a, control telemático, y toda la tecnologı́a de energı́as renovables.
Caben destacar, por su visión global y su amplitud de miras, los informes de la ONU:
UN-HABITAT: Global Reports on Urban Settlements (2007): Planning Sustainable Cities, en la siguiente página WEB: http://www.unhabitat.org/categories.asp?catid=555
y la página del World Bank: Sustainable Cities of the Future:
http://web.worldbank.org/WBSITE/EXTERNAL/TOPICS/EXTURBANDEVELOPMENT
/0,,menuPK:337184 pagePK:149018 piPK:149093 theSitePK:337178,00.html
y citare, por razones de espacio, solamente :
Droege, P., The renewable city: a comprehensive guide to an urban revolution, WileyAcademy, Hoboken, NJ, 2006
Droege, P., ed., Urban energy transition, from fossil to renewable powder, Elsevior,
Amsterdam, Boston, 2008.
Farr, D., Sustainable urbanism: urban design with environment, Ed. Wiley, Hoboken,
New Jersey, 2008.
Kahn, M. E., Green cities. Urban growth and the environment, Brooking institution
Press, Washington DC, 2006.
Moore, S. A., Alternative routes to the sustainable cities Austin, Curitiba and Frankfurt,
Lexington Books, New York, Toronto, Plymouth, 2007.
Newman, P. y Jennings, I., Cities as sustainable ecosystems: principles and practices,
Isaland Press, Washington, 2008.
Newton, P., Pathways towards sustainable urban development in Australia, CSIRO
publishing, Collingwood, Australia, 2008.
Owen, D., Green Metropolis. Why livings smaller, living closer, and driving less are
the keys to sustainability, Riverhead books, New York, 2009 .
Tamagawa, H., Ed., Sustainable cities: Japanese perspectives on physical and social
structures, United Nation Press, New York, 2006.
96
I Encuentro de Investigadores en Infraestructuras Inteligentes
Infraestructuras Inteligentes en el Internet del Futuro
Diego Casado Mansilla, Mario Vega Barbas y M. Teresa López Merayo,
Universidad de Alcalá, Grupo de Ingeniería en Servicios Telemáticos, Escuela Politécnica,
Campus Universitario, 28805, Alcalá de Henares, España
{diego.casadom, m.vega, maite.lopez}@uah.es
Abstract. El Internet de las cosas representa una vision tecnológica futura en la
cual Internet se extiende dentro del mundo real incuyendo los objetos de la vida
diaria como nuevos actores del ecosistema. El objetivo principal que se presenta
en esta contribución, es dar a conocer las líneas de trabajo de investigación de
los autores dentro de un marco futuro donde los objetos físicos pueden ser
monitorizados y controlados remotamente a través del mundo virtual, y donde
sistemas de control inteligente permiten la supervisión humana de la actividad
desde un rol no intrusivo.
Palabras clave: Infraestructuras del futuro, Objetos inteligentes, Internet de las
cosas,, interoperabilidad, sistemas de aprendizaje, razonadores.
1 Introducción
A día de hoy, el número de dispositivos con capacidad de procesamiento aumenta de
forma exponencial, y sobrepasan, con mucho, la relación de equivalencia con el
número de seres humanos que habitan el planeta. Los avances de la industria
tecnológica permiten que dichos dispositivos tengan un menor tamaño gracias a la
miniaturización de sus componentes [1] (p. ej. nanotecnología, microcomputadores y
sistemas embebidos) con un menor coste, y sin poner en detrimento su capacidad
computacional. Además, dichos dispositivos disponen, en la mayoría de los casos, de
interfaces de comunicación que permiten realizar tareas más complejas mediante su
asociación en sistemas distribuidos, sistemas de rejilla, redes malladas, clusters, etc.
La era tecnológica que atravesamos, y gracias al uso de Internet, medio de
comunicación que ha revolucionado el mundo, ha permitido la interconexión masiva
y a gran escala de estos dispositivos con el ser humano, donde este último, ha sido
siempre el centro de la interacción. Sin embargo, asistimos de forma inexorable al
siguiente salto tecnológico por dos motivos: la inclusión millones de objetos de la
vida cotidiana (dotados de un cierto grado de inteligencia) como nuevos actores de
este ecosistema [2]; y por otro lado, un cambio en el paradigma de comunicación
donde, objetos con capacidad autónoma de interacción, cómputo y organización, se
asocian para cumplir tareas sin requerir la intervención directa del ser humano. La
97
I Encuentro de Investigadores en Infraestructuras Inteligentes
comunidad investigadora ha denominado a este paso evolutivo como Internet de las
Cosas[6] y los Objetos 1.
La fusión de estos objetos cotidianos dotados de inteligencia, con múltiples y
diferentes fuentes de información de contexto y externa, permiten la creación y
redefinición del entorno físico donde son susceptibles de interaccionar. De esta forma
se crea un nuevo concepto de espacio físico donde confluyen átomos y bits al que
denominamos espacio inteligente.
El grupo de investigación al que los autores pertenecen, Grupo de Ingeniería de
Servicios Telemáticos (GIST), trabaja en esta línea dentro del proyecto europeo “Doit-Yourself Smart Experiences”[3]. Dicho proyecto tiene como objetivo conseguir que
las personas, con o sin formación técnica, sean capaces de dirigir y modificar su
entorno diario (p.ej. Hogar y ciudad) hacia una experiencia de comunicación e
interacción personalizada. Para ello, las personas serán capaces de (re)utilizar y
(re)combinar dispositivos, sensores, actuadores, servicios y objetos que ellos mismos
poseen o que otros compartan dentro del ecosistema.
Los autores consideran que el conocimiento adquirido a lo largo del proyecto
marcará sus líneas futuras de investigación, las cuales abarcan la mayoría de las áreas
de trabajo propuestas en el encuentro de investigadores donde esta contribución se
presenta.
2 De Infraestructura “inerte” a Espacio Inteligente
El reto más complejo e importante de la nueva generación de investigadores del
campo de las TICs2, es transformar el entorno para incluirlo de forma activa en el
ciclo de vida de las personas. Actualmente, las infraestructuras representan objetos
inertes donde su utilización está marcada desde su concepción y construcción,
manteniéndose invariable durante su vida. Es importante, desde el punto de vista de la
eficiencia y sostenibilidad ambiental, permitir que el uso y utilidad de estos grandes
objetos evolucione, cambie y se adapte a las necesidades de las personas que los usan.
Para ello es fundamental dotarles de inteligencia, transformarlos en Espacios
Inteligentes, para que además de útiles, cooperen con las personas.
2.1 Objetos Inteligentes
El concepto de “objeto cotidiano inteligente” hace referencia a todos los objetos que
son susceptibles a ofrecer cierta información (localización física, origen, estado,
utilización, etc.), llevando este concepto más allá del dispositivo electrónico como
electrodomésticos, dispositivos móviles, o incluso aquellos productos de alto
desarrollo tecnológico e industrial como los vehículos [5]. La idea que se persigue, es
por tanto, dotar a elementos tales como mobiliario, ropa, comida, o materiales de
construcción de una capacidad de procesado de información (mediante transductores
1
2
El concepto de Internet de las cosas se atribuye a Auto-ID Center del MIT, fundado en 1999.
Tecnologías de la Información y las Comunicaciones.
98
I Encuentro de Investigadores en Infraestructuras Inteligentes
embebidos), y/o de identificación única y comunicación (usando etiquetas RFID,
comunicación por campo cercano -NFC o redes de sensores y actuadores -WSAN),
con el fin obtener el máximo beneficio al unir el mundo físico con el mundo digital.
2.2 Integración de los Objetos dentro de la Infraestructura
La inclusión de inteligencia dentro de los objetos no ofrece, por si misma, el objetivo
final de obtener un sistema holístico con capacidad de proceso y razonamiento sobre
las diferentes fuentes de información en pro del beneficio humano. Para ello, los
objetos deben integrarse dentro del entorno físico donde residen, ser capaces de
ofrecer servicios e interconectarse de forma dinámica con otros dispositivos con
capacidad de cómputo, creando así infraestructuras inteligentes3.
El principal problema a afrontar es doble Por una parte radica en que los objetos
inteligentes, en muchos casos, tienen una capacidad de cómputo, autonomía eléctrica
y tasa de transmisión limitada. Por tanto, no son capaces de procesar un número
amplio de peticiones, ni de enviar de forma continua y masiva información hacia un
destino. Por otro lado, los objetos inteligentes son de naturaleza diversa y
tecnológicamente heterogéneos con diferentes interfaces y protocolos de
comunicación. Actualmente, no hay estándares comunes respaldados por la industria.
La solución adoptada en la investigación en curso, y que aporta un valor añadido
sobre estudios previos, se basa en la utilización de dispositivos con mayor capacidad
de cómputo (p.ej. gateways residenciales, routers, PCs, etc.) que, mediante
abstracciones, presentan y describen uniformemente todos los objetos de una misma
infraestructura inteligente (sin importar ni limitar la tecnología subyacente de estos).
Esta tecnología de abstracción hace posible la cooperación, el direccionamiento
único, el descubrimiento dinámico de dispositivos y servicios, etc.
2.3 Infraestructuras Proactivas
Las características y el potencial de trabajo de los entornos inteligentes son conocidos
y gestionados por ellos mismos mediante un sistema software proactivo. La necesidad
de dichos sistemas inteligentes es debida a la inherente composición de los espacios,
donde millones de objetos operan de forma cooperativa, y en la complejidad que
supondría para el ser humano tener una visión global de dicha estructura. De igual
forma que cada persona conoce sus habilidades y potenciales, las infraestructuras del
futuro deben ser capaces de tomar, dinámicamente, las mejores decisiones en función
de sus capacidades. Estos sistemas organizan dicha funcionalidad para conseguir una
mayor eficiencia tecnológica. Se trata de elevar al ser humano a un rol de supervisión
activa[4] dentro del ciclo de vida de la tecnología, permitiendo a los infraestructuras
aprender y comprender las necesidades humanas.
3
Téngase en cuenta que las infraestructuras inteligentes pueden ser privadas, compartidas por
un grupo cerrado o totalmente públicas.
99
I Encuentro de Investigadores en Infraestructuras Inteligentes
2.3 Interconexión de Infraestructuras Inteligentes
Para realizar el sueño del Internet de las cosas y de los objetos, es necesario centrarse
en el apartado de interconexión global de las infraestructuras y dispositivos aislados,
con el fin de no limitar el uso y acceso a cualquier fuente de información. La
investigación en este término avanza a pasos agigantados enlazando fabricantes de
silicio (que miniaturizan los componentes) e ingenieros de software (que ya han
conseguido desarrollar y empotrar una pila del protocolo IP ligera[7] y empotrar
servidores Web[8] dentro de sensores).
Actualmente, los autores están trabajando en la creación de una red distribuida y
federada de interconexión de gateways. Esta permitirá que los objetos y dispositivos
inteligentes puedan interaccionar de forma transparente, sin importar su localización
física, a través de tecnologías y estándares Web.
3 Eficiencia Tecnológica, un Caso de Uso
A continuación se expone un posible caso de aplicación del estudio presentado.
Supongamos que se dispone de una casa con jardín y se desea cuidar adecuadamente
este elemento decorativo desde un punto de vista ecológicamente sostenible. Esta
casa, como infraestructura del futuro, adapta nuestra intención para programar la
frecuencia y duración del riego de manera adecuada. Dicha programación deberá
tener en cuenta ciertas variables del entorno tales como temperatura ambiente, hora
actual, humedad del terreno y previsión. Este contexto será definido mediante
sensores, los requisitos del usuario y servicios externos de información disponibles a
través de Internet. La concepción que los autores tienen sobre la infraestructura
inteligente, contempla la supervisión de la actividad y de la información reportada,
por parte de las personas, a través de interfaces adaptadas y disponibles en el entorno.
Referencias
1.
2.
3.
4.
5.
6.
7.
8.
Moore, G. E.: Cramming more components onto integrated circuits. In Readings in
computer architecture, Morgan Kaufmann Publishers Inc., 56-59 (2000)
Weiser, M.: The computer for the 21st century. In Human-computer interaction.
Morgan Kaufmann Publishers Inc. 933-940 (1995)
ITEA-2 Project No 2008005, Do-it-Yourself Smart Experiences, founded by the
Spanish MITC -Avanza- TSI-020400-2009-124 (2009)
Tennenhouse, D.: Proactive Computing. Comm. of the ACM. No 45(5), 43-50 (2000)
Atzori, L., Iera, A., Morabito, G.: The Internet of Things: A Surrey. Comput. Netw.
50(15). 2787-2805.(2010)
ITU Internet Reports, The Internet of Things (2005)
Hui, J., Culler, D. Chakrabarti, S.: 6LoWPAN: Incorporating IEEE 802.15.4 Into the
IP Architecture. I P for Smart Objects (IPSO) Alliance. White Paper#3 (2009)
Duquennoy, S., Grimaud, G., Vandewalle, J.: The web of things: interconnecting
devices with high usability and performance. ICESS’09 (2009)
100
I Encuentro de Investigadores en Infraestructuras Inteligentes
Arquitectura DOMOSEC para automatización
inteligente de edificios: hacia el edificio sostenible
M.A. Zamora, J. Santa, A.J. Jara, and A.F. Gómez-Skarmeta
Facultad de Informática,
Universidad de Murcia, Murcia, España
{mzamora,josesanta,jara,skarmeta}@um.es
Resumen El trabajo que se presenta presenta una arquitectura integral para la automatización de entornos de interior, ejemplificada en un
despliegue prototipo orientado a la optimización del consumo energético.
Keywords: Automatización, domótica, eficiencia energética.
1.
Introducción
Los actuales sistemas de automatización de interiores no presentan un solución integral a la vez que innovadora e integrando protocolos normalizados. Este
articulo da una solución a este problema, mostrando la aplicación de la arquitectura DOMOSEC (Domótica y Seguridad) desarrollada por la Universidad de
Murcia, y que actualmente se encuentra instalada en el Edificio de Transferencia Tecnológica del Parque Tecnológico de Fuente Álamo. Éste edificio ha sido
diseñado para ser una referencia de edificio sostenibles, donde se han definido
las siguientes tres ramas de innovación:
Balance energético, entre el generado por las placas solares y el consumido
por los laboratorios y despachos.
Tele-mantenimiento y tele-monitorización de todos los dispositivos y maquinas del edificio, tales como acondicionadores de aire, ascensores, bombas de
agua, sistema auxiliar de suministro eléctrico, alarmas, e iluminación.
Identificación y control del acceso del personal al edificio y laboratorios por
radiofrecuencia (RFID).
El resto de las secciones del presente articulo presentan una breve descripción
de la arquitectura del sistema y el despliegue llevado a cabo.
2.
Arquitectura del sistema
La arquitectura hardware del sistema [1] fue concebida para la automatización y la seguridad tanto de edificios como de zonas residenciales tipo resort.
Esta plataforma ofrece la base para el soporte de entornos inteligentes basados
en inteligencia ambiental. Este se ha diseñado y prototipado desde un entorno
101
I Encuentro de Investigadores en Infraestructuras Inteligentes
académico (Universidad de Murcia), a la vez que se ha manteniendo la colaboración con empresas del área de la automatización de edificios y seguridad, con
el objetivo de cubrir sus necesidades e integrar su experiencia. La plataforma es
altamente flexible, ya que la mayorı́a de los módulos son opcionales; de esta manera se ofrece una solución que se adapta en coste a los requisitos de la solución
final y permite ajustarla o extenderla.
Las principales caracterı́sticas del sistema son: control de dispositivos eléctricos a través de protocolos domóticos estándares; control centralizado en un
módulo de automatización; gestión del sistema desde dentro del edificio mediante pantallas táctiles; diseño tolerante a fallos con replicación de los sistemas de
información; servicios de valor añadido en pasarelas residenciales local y remota;
administración y monitorización del sistema mediante software en 3D, a través
de Internet; programación remota del módulo de automatización (HAM); servicios de seguridad a través de varios posibles receptores de alarmas conectados a
varias tecnologı́as WAN; flexibilidad, debido a que el sistema puede adaptarse a
soluciones especı́ficas, eligiendo las prestaciones deseadas.
La Figura 1 muestra la arquitectura del sistema de automatización. Como
puede verse, la arquitectura está dividida en el sistema instalado en la vivienda
o edificio y las conexiones con diversos elementos remotos. Aunque el diagrama
incluye todos los posibles elementos en una solución completa de automatización de edificios, la solución es completamente modular, aplicable a viviendas,
edificios, centros comerciales, etc.
Figura 1: Visión global de la arquitectura DOMOSEC.
102
I Encuentro de Investigadores en Infraestructuras Inteligentes
3.
Capacidades de monitorización y control
El componente principal de la arquitectura es el módulo de automatización
de la vivienda, HAM (Home Automation Module). Este elemento incluye un ordenador embebido conectado con todos los electrodomésticos, sensores y actuadores. De esta forma, este módulo centraliza la inteligencia del sistema, porque
contiene la configuración utilizada para controlar todos los dispositivos instalados. Una base de datos local en una memoria no volátil, guarda las acciones que
tienen que ser ejecutadas de acuerdo a condiciones programadas o basadas en
lecturas de sensores. El módulo de automatización HAM es altamente adaptable
y compatible con la regulación actual en seguridad (EN-50131 y EN-50136). El
corazón del sistema es un microcontrolador de 32-bit basado en la arquitectura ARM9. El HAM soporta varios controladores de red, entradas analógicas o
digitales básicas, CAN (Controller Area Network), X10 para conexión de bajo
coste, EIB (European Installation Bus), o ZigBee como conexión inalámbrica,
entre otros, para conectar con los dispositivos del edificio. El módulo de automatización puede incluir además un interfaz de usuario mediante una pantalla
táctil LCD a color de 5.6”(ver Figura 2). No obstante, pueden instalarse paneles
de control en distintos lugares, que sirven de interfaz de usuario.
La pasarela residencial del sistema ofrece servicios de valor añadido de monitorización y administración. Esta pasarela está comunicada con la unidad de
automatización vı́a Ethernet, dejando las labores de comunicación con dispositivos y actuadores al HAM. Otras soluciones dejan estas tareas directamente
a las pasarelas residenciales basadas en PC [2], pero esto no se considera una
estrategia adecuada, ya que es necesario ofrecer una solución embebida tolerante a fallos en este tipo de entornos. En la arquitectura presentada, la pasarela
residencial, esta vez basada en un PC embebido, es utilizada para ofrecer servicios extra a los habitantes de la vivienda, haciendo uso de OSGi (Open Services
Gateway initiative) para gestionar el ciclo de vida de los servicios.
4.
Despliegue del sistema
El sistema DOMOSEC descrito en las secciones anteriores se ha aplicado en
un nuevo edificio de la Universidad e Murcia cuyo principal propósito es optimizar la eficiencia energética. El tejado del edificio ha sido dotado de diversos
paneles solares, mientras que el interior se ha automatizado para aprovechar al
máximo la energı́a consumida. Cada planta del edificio dispone de un HAM que
controla las estancias, mientras que cada una de estas zonas de trabajo dispone de otro HAM que se utiliza para monitorizar los consumos de electricidad y
agua, controlar los accesos, además de incluir diversas capacidades de inteligencia ambiental, explotando las ventajas de DOMOSEC. El puesto del guarda de
seguridad del edificio dispone de una pasarela local (ver Figura 1), con capacidades de monitorización sobre todo el edificio. No obstante, también se dispone
de una pasarela remota que permite el acceso remoto al edificio. La intensidad
y encendido de las luces en cada estancia se adapta en función de la luz natural
103
I Encuentro de Investigadores en Infraestructuras Inteligentes
disponible. Se han incluido detectores de incendio e inundación, y se permite
el encendido/apagado de dispositivos conectados a la red eléctrica. El HAM de
cada estancia está conectado con un panel de control táctil. Éste se puede ver
en la Figura 2, junto con el panel eléctrico adaptado para su conexión con el
sistema DOMOSEC. Esta adaptación permite monitorizar la energı́a consumida
por secciones.
Figura 2: Panel de control de gestión para cada estancia del edificio.
5.
Conclusiones
La arquitectura presentada ofrece una solución integral para la automatización de entornos de interior, válida para desplegar servicios domóticos tı́picos
(encendido de luces, cierre de persianas, etc.) o novedosas aplicaciones de la
inteligencia ambiental. Su despliegue en un edificio de mejora de la eficiencia
energética en la Universidad de Murcia, muestra una prueba del concepto de
gran parte del potencial de DOMOSEC. Actualmente, los trabajos están en la
lı́nea de ofrecer mejoras en las comunicaciones inalámbricas, mediante tecnologı́a 6LoWPAN (IPv6 over Low power Wireless Personal Area Networks); en la
evaluación de modelos avanzados de mejora de los consumos energéticos; en el
estudio y desarrollo de nuevos servicios pervasivos.
Referencias
1. Zamora, M.A.; Santa, J.; Skarmeta, A.F.G.; .An integral and networked Home Automation solution for indoor Ambient Intelligence”, IEEE Pervasive Computing, Vol.
9, pp. 66-77, 2010.
2. P. Pellegrino, D. Bonino and F. Corno, ”Domotic House Gateway”Proc. ACM Symp.
Applied Computing, Dijon, France, Apr. 2006.
104
I Encuentro de Investigadores en Infraestructuras Inteligentes
Importancia de las previsiones climáticas para la
planificación de infraestructuras y la gestión energética
Marı́a José Ortiz Beviá, Francisco J. Alvarez-Garcı́a, Antonio Ruiz de Elvira,
Giovanni Liguori1
1
Grupo de Investigación Fı́sica del Clima, Universidad de Alcalá
Áreas de Interés: Autopistas del Futuro, Sostenibilidad Medioambiental, Gestión
Energética
Resumen. La planificación y ejecución de grandes infraestructuras, como autopistas, obras hidraúlicas o puertos, ha requerido siempre de cierta informacion climática. En la situación actual,
sin embargo, la planificación y ejecución inteligente de infraestructures requiere mucha más información por parte de los expertos climáticos. Nuestro mejor conocimiento de los procesos
climáticos permite una mejor caracterización de la variabilidad actual, tanto media como extremal. Por otro lado, los cambios en la composición de la atmósfera, suponen que las carácteristicas
futuras de esta variabilidad sólo puedan ser estimadas con la ayuda de las simulaciones realizadas con los modelos climáticos más sofisticados (modelos acoplados de circulación general). El
grupo de Fı́sica del Clima de la UAH tiene experiencia en este tipo de estudios, de interés desde
los puntos de vista de la eficiencia energéetica, la sostenibilidad, y para el diseño de autopistas
del futuro.
Palabras Clave: Cambio climático, Autopistas del Futuro, Sostenibilidad Medioambiental, Gestión Energética
1 Introducción
La necesidad de información climática en la planificación y ejecución de grandes infraestructuras, como autopistas, obras hidráulicas o puertos, se ha debido indudablemente
a su mayor periodo de servicio. La información requerida no se referı́a únicamente a
la climatologı́a de variables como la precipitación y la temperatura. También el conocimiento de la variabilidad extremal (temperaturas máximas y mı́nimas, y precipitaciones
máximas) se ha tenido en cuenta en la planificación de estas obras. Precisamente la necesidad que tienen las infraestructuras de conocer mejor este aspecto de la variabilidad
climática es la que ha dió origen en España al establecimiento de estaciones de observación meteorológica (en las confederaciones hidrográficas) y a redes de registro de
oleaje.
105
I Encuentro de Investigadores en Infraestructuras Inteligentes
En la situación actual, sin embargo, la planificación y ejecución inteligente de infraestructures requiere mucha más información por parte de los expertos climáticos. Por
un lado, los avances registrados en climatologı́a en los últimos treinta años han puesto de manifiesto la importancia que algunas señales climáticas interanuales tienen para
la variabilidad de determinadas regiones. El Niño-la Oscilación del Sur (ENSO) por
ejemplo, condiciona la precipitación de numerosas regiones, incluso fuera de la cuenca Pacı́fica (como la cuenca del Nilo). Su aparición supone una organización de los
procesos atmosféricos a escala global, que origina ’ventanas de oportunidad’ para la
predecibilidad [1]. Esto es un hecho comprobado en las predicciones climticas elaboradas con los modelos acoplados más sofisticados (por ejemplo del Nacional Center for
Environmental Prediction (USA) [2] o del European Center for Medium Term Weather Forecast [3]). La predecibilidad de otras señales regionales, como la Oscilación del
Atlántico Norte, está condicionada por la fase del Niño [4].
Por otro lado, las previsiones climáticas a más de 50 años realizadas con los modelos del
panel intergubernamental de cambio climático (IPCC) confirman los cambios observados en la climatologı́a mensual y en la variabilidad extremal, que se pueden relacionar
con los cambios en la composición de la atmósfera [5]. En el Norte de Europa, la construcción de infraestructuras tiene en cuenta ya el aumento de precipitación que deben
soportar. Esto último se relaciona con el aumento del vapor de agua en la atmósfera, que
a su vez se explica por un aumento en la evaporación debido a las elevadas temperaturas
del agua del mar y de los rı́os [5]. En el sur de Europa, el aumento de las olas de calor
tiene que ser también tenido en cuenta en la planificación de infraestructuras [6]. En
ambas regiones se ha apreciado una disminución de la demanda energética de invierno
y un aumento de esta demanda en verano, que tiene que ser también considerado en el
diseño de la red eléctrica [7].
Algunas de estas cuestiones han sido estudiadas por el grupo Fı́sica del Clima en las últimas dos décadas. El grupo tiene acceso a los datos de las simulaciones realizadas con
los modelos más sofisticados. Domina también las técnicas estadı́sticas para analizar
datos . Y dispone de modelos estadı́sticos para el pronóstico de las señales interanuales que afectan tanto a América Central y del Sur, como al sector noratlántico, como
explicamos en el siguiente apartado.
2
Predicciones a corto plazo: ventanas de oportunidad
El Niño-La Oscilación del Sur (ENSO) es la señal interanual más fuerte, y aunque se
origina en el Pacı́fico tropical su influencia es global. Su seguimiento se suele realizar
con el ı́ndice Niño3, definido como un promedio de las anomalı́as de la temperatura en
superficie del mar en la región [150E - 90W, 5S-5N], aunque a veces se pueden usar
otros ı́ndices.
106
I Encuentro de Investigadores en Infraestructuras Inteligentes
Figura 1. Correlación entre el ı́ndice Niño 3 y la precipitación en Centroamérica. La correlación es significativa por encima de 0.19 (en valor absoluto).
Figura 2. Habilidad de pronóstico del ı́ndice de
la NAO.Se considera útil por encima de 0.7. Los
triángulos representan pronósticos para la NAO de
invierno con predictores de invierno y verano.
La habilidad en los pronósticos de este ı́ndice puede ser superior a nueve meses en
simulaciones con modelos sofisticados. Estos valores coinciden con los encontrados por
este grupo, utilizando el modelo estadı́stico BOP (Patrones Bayesianos de Oscilación
[8]). Nuestra figura 1 representa la correlación entre el ı́ndice Niño3 en verano y las
anomalı́as de precipitación en Centro-América en esa misma estación (la de lluvias).
Observamos que la fase positiva de ENSO va acompañada de intensa sequı́a en la mayor
parte de esta región, aunque en elgunas zonas se producen lluvias anómalas, a veces
(sólo se roza el nivel de significancia). Este es un ejemplo claro de la necesidad de una
resolución espacial elevada para estudiar los efectos de ENSO. Esta resolución se puede
conseguir com métodos de bajada de escala, ya sean dinámicos o estadı́sticos. Nuestro
grupo también ha realizado distintos estudios de ’bajada de escala’ en esta región.
La Oscilación del Atlántico Norte (NAO) es un modo de variabilidad de la atmósfera en
el sector noratlántico. Se caracteriza mediante el ı́ndice de la NAO, definido como la diferencia normalizada de las anomalı́as de presión de Lisboa e Islandia [9]. En bastantes
observatorios de la zona atlántica de la penı́nsula Ibérica el ı́ndice estacional de la NAO
explica una parte de la lluvia invernal (correlación negativa y en valor absoluto mayor
que 0.4). Las lluvias son más frecuentes cuando la NAO es negativa. Se ha relacionado
la disminución de las lluvias en los ultimos años con la aparición en el ı́ndice de la
NAO de una tendencia ascendente. La predecibilidad de la NAO es asunto discutido.
Está claro que el ı́ndice diario de la NAO presenta caracterı́sticas caóticas. Sin embargo,
indices derivados del anterior ,como las medias estacionales, pueden estar influidos por
la memoria almacenada en las SST, y ser, en parte, predecibles. La figura 2 representa
la habilidad predictiva (medida como correlación entre predictando y predictor) de las
medias estacionales del ı́ndice de la NAO, a plazo de un año o superior, para predictores
y predictando en distintas estaciones: invierno, primavera, verano, otoño ..etc.
3 Predicciones a largo plazo: a partir de conjuntos de simulaciones
climáticas
107
I Encuentro de Investigadores en Infraestructuras Inteligentes
A más de unas pocas décadas, las únicas fuentes de información sobre las caracterı́sticas de la variabilidad climática son las simulaciones con modelos acoplados de última
generación [5]. Estas simulaciones son financiadas (en parte) por el panel del IPCC, y
están disponibles para la comunidad cientı́fica una vez que los informes se han hecho
públicos. Estas simulaciones se utilizan como condiciones de frontera en otras regionales , que proporcionan una información de mayor resolución de los cambios esperables,
p.ej. en la variabilidad extremal [10]. Citaremos, por ejemplo, las que se han realizado
recientemente en el marco del proyecto europeo CIRCE [11].
Bibliografı́a
1. Chen Y.-G., Battisti D.S., Palmer T. N., Barsugli J. y Sarachik S. (1997) A study
of the predictability of the Tropical Pacific SST in a coupled atmosphere-ocean model
using singular vector analysis: the role of the annual cycle and the ENSO cycle, Mon.
Wea. Rev., 125, 831-845.
2. Palmer et al. (2004) Development of sn European multimodel ensemble system for
seasonal-to-interannual prediction DEMETER, Bull. American Meteorol. Soc., 85, 853872.
3. Saha et al. (2006) The NCEP climate forecast system, J. Climate, 19, 3483-3517.
4. SánchezGómez E., F.J. AlvarezGarcı́a and M.J. OrtizBeviá (2001) , Empirical forecasts of 850hPa Air Temperature Anomalies over the North Atlantic., Q. J. Royal
Meteor. Soc., 127, 2761-2786.
5. Solomon S. et al.(2007), Climate Change 2007: The Physical Science Basis,Cambridge
University Press , Cambridge, U. K..
6. Meehl G. A. and Tebaldi C. (2004) More intense, more frequent and longer lasting
heat waves in the 21st century, Science, 305, 996-997.
7. Ortiz Beviá M. J., Sánchez-López G., Alvarez-Garcı́a F.J., RuizdeElvira A. (2011)
Evolution of heating and cooling degree-days in Spain: Trends and interannual variability (en preparación)
8. Ruiz de Elvira A., M.J. OrtizBeviá (1995) Application of Statistical Techniques to tha
analysis and prediction of ENSO: Bayesian Oscillation Pattern as a predictive acheme ,
Dyn. Atmos. Oceans, 22, 91-114.
9. Hurrell J. W. (1996) Infleunce of variations in extratropical wintertime teleconnections in northern hemisphere temperatures, Geophys. Res. Lett-, 23, 665-668.
10. M. J. Ortiz Beviá, E. SánchezGómez, F. J. AlvarezGarcı́a (2011) North Atlantic
atmospheric regimes and winter extremes in the Iberian peninsula. Nat. Hazards Earth
Sys. Sci.,en prensa.
11. OrtizBeviá M.J., Alvarez-Garcı́a F. J., Henandez-Carretero J., Lorente Lorente P.,
Sánchez López G (2010). La variación interanual del mediterráneo en verano en una
simulación regional acoplada , en Clima, Ecosistemas y Ciudad, 231-236, Asociacion
Española de Climatologı́a (Eds del Serbal),(2010).
108
I Encuentro de Investigadores en Infraestructuras Inteligentes
Context-aware, Personalized Services for Smart Cities
Hasier Iñan1, Manel Palau1, Victor García1, Alberto Pobre1
1
Tech Media Telecom Factory
E - 08006 Barcelona
{hasier.inan, manel.palau, victor.garcia, alberto.pobre}@tmtfactory.com
Abstract. This work presents a user-centric service deployed in a Smart City by
means of mobile devices and Interactive Community Displays (ICDs). The
service considers personalization and contextual information to bring city
services closer to people living in or visiting a city by interconnecting people,
service providers and locations. The personalization is concerned with several
issues typically encountered in the representation of user profiles, such as coldstart problem, content filtering and user feedback.
Keywords: Smart city, personalization, context-awareness, user profile
adaption, mobility.
1 Introduction
Nowadays it is becoming common to search for domain-related content and activities
through mobile devices, such as Smartphones or tablet PCs, along with Interactive
Community Display (ICDs), which are multimedia information points offering
interactive services on the public thoroughfare [2][6][9]. Anyhow, these services
usually do not distinguish users as individuals and provides similar information to
users either with different characteristics or in different contexts.
A concrete way to achieve an effective personalization is by means of user profiles
storing user preferences that consider the context of the users. Although user profiles
use to represent a common practice in personalization systems, they intrinsically bring
several issues [1]. For instance, anonymous users do not have an initial profile; so
predicting initial user preferences is required to avoid the cold-start problem.
Moreover, user profiles’ representation should be rich enough to represent preferences
which depend on contextual information, and sufficiently compact to be able to be
processed in an efficient way. The representation through the insertion of semantics
provides the ability to discover, integrate and reuse content. Besides, it makes it
possible to match such content with user preferences for a given time or place. Last
but not least, user preferences must be adapted according to the user feedback in order
to increase the knowledge about the user and thus enhance the personalized flavor of
the suggestions.
In this work we present a multi-stage user profile adaptation process by means of
semantic representation, preference handling methods and ambient intelligence.
109
I Encuentro de Investigadores en Infraestructuras Inteligentes
2 System Interaction and Content Provisioning
The user profile adaptation process follows four sequential phases each time the user
interacts with the system (Figure 1). In the following, the general process is
overviewed and each step is briefly depicted.
Fig. 1. Overview of the User Profile Adaptation Process
2.1 Adaptation Process
The Profile Manager deals with the representation of user preferences. At the first
user interaction an initial user profile is assigned and stored according to the profile
ontology, which contains weighted contextual preference relations. In the case of new
users, the user profiles are created inheriting preferences from predefined user groups.
Then, the user profile representation is provided to the Preference Reasoner [3][4],
which also collects the current context to reason about the corresponding contextaware preferences. The reasoning generates a sorted list of preferences, which are
then processed by the Content Manager in order to match the appropriate suggestions
to be provided. Finally, once the suggestions are provided, the user can express some
feedback (implicit or explicit) that is processed by the Feedback Manager to update
the user profile.
2.2 User Profile Management
The Profile Manager represents the user profiles presented above and is supported by
a User Model [7][8], that is, a knowledge base and a set of reasoning mechanisms
regarding user’s characterization in order to outline their preferences and
110
I Encuentro de Investigadores en Infraestructuras Inteligentes
requirements and adapt the interaction to them. The knowledge base contains facts
relating a user (or a group of users [5]) with a user feature and a value (within that
feature domain). A user feature might be any perceivable attribute or behavior of the
user, observed within the user profile ontology described in the previous section.
Specifically, this system counts on a predictive statistical user model [11].
This User Model is populated through experience, that is, each session held with a
user increases the knowledge base in order to improve future interactions. The
information acquired from the interlocutor is anonymized and shaped into a
stereotype, which will be stored as a new group or used to refine an existent one.
However, the model supports an initial knowledge load.
2.3 Profile Update based on Provided Feedback
The Feedback Manager is responsible for adapting user profiles by processing users
interactions and valuations on provided suggestions [10]. The evaluation process
follows two modes: (i) explicit evaluation, contemplating an explicit rating of the user
on each suggestion; (ii) implicit evaluation, considering user selections on the
provided suggestions as positive feedback. In this case, preferences related with such
suggestions are rated with a default value.
Once the evaluation is performed, the Feedback Manager receives a list of distinct
rankings of each preference evaluated in a set of contexts. Thus, the module interacts
with the Profile Manager to update or create new preference rules based on a given
context set.
3 Conclusions and Future Research
This work presents a user profile adaptation process that takes into consideration the
context of the user. The adaptation of user profiles and the recommendation of content
and activities are based on several factors such as profile assignment, content filtering
and user feedback.
In cases where anonymous users use the service, Group User Models prevent the
cold start problem. However, in any case, the user profile must be continually adapted
based on user interactions and feedback, due to the fact that the initially assigned
profile is not close enough to provide the user with personalized content. In fact, the
service offers the user the possibility to provide an explicit feedback by means of
ratings, and also processes the selections of the users to extract implicit feedback.
Since new context-aware preferences can be created and updated in each feedback
process, the more feedback received, the more adapted is the profile w.r.t. the user
necessities.
The service envisages the customization of content, taking into account not only a
user profile, but also the surrounding environment. For this reason, several sensors are
required to capture relevant data on the location, interaction and context, thus
providing an ambient intelligence.
111
I Encuentro de Investigadores en Infraestructuras Inteligentes
Acknowledgments. This work has been partially supported by the SEMANTS
project (TSI-020110-2009-419), which is partially funded by the Spanish Ministry of
Industry, Tourism and Trade.
References
1. Adomavicius, G., Tuzhilin, A.: Toward the Next Generation of Recommender Systems: A
Survey of the State-of-the-Art and Possible Extensions. IEEE Trans. on Knowl. and Data
Eng. 17, 734–749 (June 2005)
2. Ceccaroni, L., Codina, V., Palau, M., Pous, M.: PaTac: Urban, Ubiquitous, Personalized
Services for Citizens and Tourists. In: 3rd International Conference on Digital Society
Proceedings. pp. 7–12. IEEE Computer Society (2009)
3. Confalonieri, R., Nieves, J.C., Osorio, M., Vázquez-Salceda, J.: Possibilistic Semantics for
Logic Programs with Ordered Disjunction. In: Link, S., Prade, H. (eds.) FoIKS 2010
Proceedings. LCNS, vol. 5956. Springer-Verlag (2010)
4. Confalonieri, R., Nieves, J.C., Vázquez-Salceda, J.: Towards the Implementation of a
Preference- and Uncertain-Aware Solver Using Answer Set Programming. Research report,
Universitat Politecnica de Catalunya (2010)
5. Finin, T., Drager, D.: GUMS: a general user modeling system. In: Proceedings of the
workshop on Strategic computing natural language. pp. 224–230. HLT ’86, Association for
Computational Linguistics (1986)
6. Gomez, I., Palau, M., Nieves, J., Vázquez-Salceda, J., Ceccaroni, L.: Dynamic Orchestration
of Distributed Services on Interactive Community Displays: The ALIVE Approach. In:
Demazeau, Y.e.a. (ed.) In: 7th International Conference on Practical Applications of Agents
and Multi-Agent Systems Proceedings, vol. 55, pp. 450–459. Springer Berlin / Heidelberg
(2009)
7. Kobsa, A.: Generic User Modeling Systems. User Modeling and User-Adapted Interaction
11, 49–63 (March 2001)
8. Liu, P., Nie, G., Chen, D.: Exploiting Semantic Descriptions of Products and User Profiles
for Recommender Systems. In IEEE Symposium on Computational Intelligence and Data
Mining. pp. 179–185 (2007)
9. Palau, M., Gómez, I., Vázquez, J., Ceccaroni, L., Nieves, J.: A Framework for the
Development and Maintenance of Adaptive, Dynamic, Context- Aware Information
Services. In: 3rd International Conference on Agents and Artificial Intelligence Proceedings,
vol. 55, pp. 88–95. Springer-Verlag (2010)
10. Wang, R.Q., Kong, F.S.: Semantic-Enhanced Personalized Recommender System. In:
Machine Learning and Cybernetics. vol. 7, pp. 4069 –4074 (2007)
11. Zukerman, I., Albrecht, D.W.: Predictive Statistical Models for User Modeling. User
Modeling and User-Adapted Interaction 11, 5–18 (2001)
112
I Encuentro de Investigadores en Infraestructuras Inteligentes
Sistema para la navegación en interiores mediante
técnicas de Realidad Aumentada
C. González, M. A. Martínez, F.J. Villanueva, D. Vallejo, J. C. López
1
Escuela Superior de Informática. Universidad de Castilla-La Mancha.
Paseo de la Universidad, 4. 13071 Ciudad Real
{Carlos.Gonzalez, Miguela.Martinez, Felix.Villanueva, David.Vallejo,
JuanCarlos.Lopez}@uclm.es
Resumen. Los sistemas de navegación permiten la localización y seguimiento
de elementos móviles en un entorno. Si esta información es procesada en
tiempo real, es posible mejorar la eficiencia y automatización de tareas en el
uso de las infraestructuras existentes. En este trabajo se describe una plataforma
de Realidad Aumentada que emplea diversas técnicas visión por computador
para la ayuda a la navegación en interiores. Nuestra aproximación emplea
información de contexto para seleccionar la información relevante al usuario
para la realización de ciertas tareas.
Palabras clave: Localización, Posicionamiento, Navegación, Realidad
Aumentada, Visión por Computador, Tracking.
1 Introducción
Los sistemas de ayuda a la navegación requieren el cálculo con precisión del
posicionamiento del usuario en el entorno. Aunque la comunidad científica ha
realizado mucho esfuerzo en diferentes áreas [1] como localización por Wifi, RFID o
Bluetooth, en la actualidad todos los métodos presentan sus ventajas y limitaciones en
términos de coste, precisión, cobertura, etc.
En el proyecto Elcano1 se aborda la construcción de un sistema de navegación
multimodal para personas con discapacidad. La combinación de diferentes métodos
de posicionamiento permiten obtener la localización del usuario de un modo más
robusto y preciso. Una vez conocida la posición del usuario, Elcano calcula una
posible ruta hacia una serie de objetivos teniendo en cuenta el contexto de la
operación (posición actual, tipo de discapacidad del usuario, información del entorno,
etc). Ciertas discapacidades cognitivas requieren nuevos paradigmas de interacción
persona-computador que eviten determinadas abstracciones (como iconos o
señalización en edificios) [2]. En este artículo se presenta uno de los módulos de
localización y representación de Elcano basado en técnicas de Realidad Aumentada.
1
Este trabajo ha sido financiado por el proyecto Elcano: Infraestructura de navegación en
entornos inteligentes para personas de movilidad limitada, de la Cátedra Indra - Universidad
de Castilla-La Mancha.
113
I Encuentro de Investigadores en Infraestructuras Inteligentes
2
Localización y Seguimiento
Existen multitud de trabajos en el campo de la integración de sensores inerciales y
sensores basados en métodos de visión mediante el uso de marcas [3]. Las marcas
visuales son ampliamente utilizadas por su rápida detección empleando métodos poco
costosos computacionalmente. Existen diferentes familias de métodos de
posicionamiento basados en técnicas de visión por computador, muchas de ellas
ampliamente utilizadas en el campo de la robótica. En [4] se realiza un estudio del
estado del arte en métodos de localización basados en imágenes.
Nuestro trabajo en el módulo de Realidad Aumentada de Elcano se centra en la
combinación de diferentes métodos de tracking visuales empleando una arquitectura
multi-capa y un middleware de comunicaciones orientado a objetos. El prototipo
mostrado en la Fig. 1 se estructura en cuatro capas principales:
•
La Capa de Sensorización se encarga de obtener la información del entorno
mediante un despliegue de sensores heterogéneos. En esta capa es posible
desplegar pequeños objetos dedicados a tareas concretas, como por ejemplo un
filtro de Kalman implementado en un microprocesador.
•
La Capa de Tracking proporciona servicios de seguimiento de elementos
móviles a otros objetos del sistema. En esta capa se pueden desplegar objetos
de tracking absoluto (como basados en marcas) o de tracking relativo (como
basados en puntos de interés y Optical Flow). En nuestra aproximación se han
utilizado ARToolKit como método de tracking basado en marcas y OpenCV
como implementación base del Optical Flow.
•
La Capa de Fusión se encarga de integrar la información de tracking
proporcionada por los objetos de la capa anterior empleando conocimiento
experto e información sobre el histórico de percepciones anteriores.
•
La Capa de Representación finalmente se encarga de desplegar una interfaz
de usuario adecuada a cada usuario, teniendo en cuenta las limitaciones del
dispositivo de representación que se utilizará. En la siguiente sección se
estudiarán los detalles más relevantes de esta capa.
En este esquema de cuatro capas, el diseño de la plataforma se ha realizado
teniendo en cuenta la movilidad del dispositivo de representación, y sus limitaciones
asociadas (baja capacidad de cómputo, autonomía y rendimiento en despliegue 3D).
De este modo se distingue entre objetos móviles, que se ejecutan en el dispositivo
portátil, y objetos estáticos que se ejecutan en servidores externos. El objetivo de esta
separación es realizar el tracking básico en tiempo real en el dispositivo portátil,
delegando tareas computacionalmente más costosas en los objetos estáticos externos.
Por ejemplo, existe un servicio de localización basado en descriptores de imagen que
emplea una extensa base de datos para calcular la posición del usuario periódicamente
bajo demanda.
Gracias al uso de la infraestructura de comunicaciones de Elcano, la localización
de objetos es transparente, por lo que la migración de objetos externos puede
realizarse sin necesidad de cambios en la interfaz de representación.
114
I Encuentro de Investigadores en Infraestructuras Inteligentes
3
Representación
El principal objetivo de la Realidad Aumentada (RA) es mejorar la percepción e
interacción del usuario con el mundo real añadiendo capas de información sintética
3D perfectamente alineadas con los objetos reales. En el trabajo desarrollado para
Elcano, esta información se filtra para mostrar únicamente la información relevante
para el usuario teniendo en cuenta el contexto estático (tipo y nivel de discapacidad),
y el contexto dinámico (posición, objetivo y estado actual del entorno).
La representación se realiza empleando un motor de despliegue propio basado en
OpenGL, con soporte de widgets de navegación 2D (mapas y listas de tareas) y carga
de objetos 3D de entorno e interacción.
Para facilitar la navegación a personas con discapacidad cognitiva, se utiliza la
metáfora de seguimiento de líneas virtuales pintadas sobre el suelo, que son
actualizadas en tiempo real superponiendo polígonos 3D sobre la vista de la cámara
(ver Fig. 1). Mediante esta aproximación se facilita la navegación proporcionando
flujos continuos de información visual sintética integrada en la percepción del
entorno.
Fig. 1. Interfaz de navegación basado en Realidad Aumentada a) y b) Capturas de la interfaz de
navegación. Las líneas de color rojo mostradas sobre el suelo indican el camino que deberá
seguir el usuario para alcanzar el objetivo de navegación. c) El usuario utiliza un TabletPC para
navegar en el interior del edificio. En esta imagen se muestran algunas marcas pasivas de
Realidad Aumentada. d) El sistema cuenta con cámaras IP externas (como la situada en la parte
superior de la vitrina) que permiten calcular mediante objetos estáticos la posición del usuario
(como muestra la fotografía, el TabletPC tiene asociada a su vez una marca visual).
115
I Encuentro de Investigadores en Infraestructuras Inteligentes
4
Conclusiones
El trabajo desarrollado en Elcano proporciona un sistema de posicionamiento y
navegación multimodal para usuarios de movilidad limitada. La combinación de
diferentes aproximaciones a la localización en interiores dota al sistema de una mayor
robustez y tolerancia a los fallos intrínsecos de cada método.
El módulo de Realidad Aumentada emplea técnicas de tracking visual para la
localización y navegación en el interior de edificios. El módulo de representación
utiliza nuevos paradigmas de interacción para facilitar la consecución de objetivos al
usuario empleando información relativa al contexto. Frente a las soluciones
arquitectónicas existentes en el ámbito de la Realidad Aumentada [5][6], la
plataforma propuesta en Elcano proporciona, gracias al uso del middleware orientado
a objetos, una aproximación más eficiente para dispositivos móviles, además de la
selección de información relevante mediante el modelado de conocimiento experto.
Como línea de trabajo futuro cabe destacar la incorporación de nuevos métodos de
tracking visuales e inerciales. La interfaz de posicionamiento en el prototipo actual
requiere algún tipo de mecanismo de localización absoluto (basado en marcas o
balizas) para proporcionar datos exactos. Actualmente se está trabajando en la
incorporación de nuevas aproximaciones, como el método PTAM [7] junto con el uso
de módulos adicionales de tracking inercial.
Referencias
1. Seco, F., Jimenez A.R., Prieto, C., Roa, J. Koutsou, K.: A survey of mathematical methods
for indoor localization. In: IEEE International Symposium on Intelligent Signal Processing,
pp. 9--14. IEEE Press, New York (2009).
2. Passini, R.: Wayfinding design: logic, application and some thoughts on universality. In:
Design Studies, vol. 17, no. 3., pp. 319—331. Elsevier (1996).
3. Coughlan, J., Manduchi, R.: Functional assessment of a camera phone-based wayfinding
system operated by blind and visually impaired users. In: International Journal on Artificial
Intelligence Tools, vol. 18, no. 3, pp. 379--397.World Scientific (2009).
4. Hile, H., Borriello, G.: Positioning and Orientation in Indoor Environments using camera
phones. In IEEE Computer Graphics and Applications, vol. 28, no. 4, pp. 32—39. IEEE
Press, New York (2008).
5. Ponder, M., Papagiannakis, G., Molet T. Magnenat-Thalmann, N., Thalmann, D.: VHD++
development framework: Towards extensible component based VR/AR simulation engine
featuring advanced virtual character technologies. In Computer Graphics International, pp.
96--104 (2003).
6. Ohlenburg, J., Herbst, I., Lindt, I., Frohlich, T., Broll, W.: The MORGAN framework:
enabling dynamic multiuser AR and VR projects. In: Proceedings of the ACM symposium
on Virtual Reality software and technology, pp. 166--179 (2004).
7. Klein, G., Murray, D.: Parallel Tracking and Mapping for Small AR Workspaces. In:
Proceedings of the 6th IEEE and ACM International Symposium on Mixed and Augmented
Reality, pp. 225--234 (2007).
116
I Encuentro de Investigadores en Infraestructuras Inteligentes
Monitorización Automática del Nivel de Llenado de
Contenedores de Residuos
Rafael Barea1 , Joaquín Cantos1, Jesús Sánchez1, Juan Manuel Miguel1,
J. M. Rodríguez-Ascariz1, Luciano Boquete1,
1
Departamento de Electrónica, Universidad de Alcalá, España
{barea, boquete}@depeca.uah.es
Resumen. Se presenta un sistema multisensorial para la medida del nivel de
llenado de contenedores de residuos. Gracias a la utilización conjunta de
sensores de ultrasonidos y sensores de infrarrojos se consigue una alta
fiabilidad en la medida. Se ha diseñado un sistema electrónico que permite el
envío de los datos a un ordenador personal, para su procesamiento y
visualización. Las pruebas realizadas en laboratorio y en condiciones reales
demuestran el correcto funcionamiento del sistema de medida.
Keywords: Ultrasonidos, infrarrojos, microcontrolador, contenedor de basura,
gestión de residuos.
1 Introducción
El proceso de automatización de los servicios de recogida de residuos puede tener
ventajas económicas (optimización de rutas), ecológicas y sociales (mejor servicio a
los ciudadanos). Existen publicaciones relativas a sistemas que detectan el nivel de
llenado de contenedores. Por ejemplo, en [1] se utilizan sensores de ultrasonidos,
cámaras y sensores de presión para diseñar un contenedor sensorizado para la
estimación del nivel y tipo de basura, así como la optimización del proceso de
recogida. Por otro lado son numerosos los trabajos relacionados con la protección del
entorno mediante la gestión efectiva de la basura [2,3].
El objetivo de este trabajo es la monitorización automática del nivel de llenado de los
contenedores de residuos y el estudio de diferentes tipos de sensores y configuración
de los mismos para optimizar el proceso de selección y recogida de los residuos.
2 Método
Los sensores idóneos para la medida del nivel de llenado de un contenedor de
residuos son los de ultrasonidos e infrarrojos, ya que ofrecen una precisión muy
elevada con un coste reducido, además de ofrecer una gran vida útil. Debido a la gran
variedad de residuos (papel, orgánicos, plástico, etc.) y geometría de los
117
I Encuentro de Investigadores en Infraestructuras Inteligentes
contenedores, una combinación de ambos tipos de sensores puede conseguir un
funcionamiento satisfactorio en la gran mayoría de los casos.
A nivel hardware se ha desarrollado una tarjeta que permite la conexión entre los
sensores de medida del nivel y un ordenador personal (Fig. 1). El sistema electrónico
está basado en un microcontrolador LPC1768 perteneciente a la familia ARM CórtexM3. El dispositivo implementado permite obtener las medidas de hasta 16 sensores de
ultrasonidos, conectados mediante un interfaz I2C y 8 sensores de infrarrojos. Los
sensores de infrarrojos entregan una señal analógica, que se acondiciona para
eliminar ruidos y aprovechar el máximo el rango del conversor Analógico/Digital del
microcontrolador, con una resolución de 12 bits/muestra.
Los datos de estos sensores ya procesados son enviados vía USB a un ordenador para
su visualización en tiempo real. Gracias a la aplicación ejecutada en el PC se realiza
la calibración de los sensores de infrarrojos, permitiendo además el ajuste de diversos
parámetros: frecuencia de muestreo, secuencia de activación, etapas de procesado,
etc.
Sensores
PC
Microcontrolador
Fig. 1. Diagrama general.
El método de trabajo se ha estructurado en dos fases: a) pruebas de laboratorio y b)
pruebas en condiciones reales.
2.1 Pruebas en laboratorio
En el laboratorio de la Escuela Politécnica de la Universidad de Alcalá se ha
implementado en un sistema de medida compuesto por los siguientes sensores (Fig.
2):
o
o
o
o
3 Ultrasonidos SFR02
3 Infrarrojos GP2Y0A02YK
1 Infrarrojo GP2Y0A710K0F
1 Infrarrojo GP2Y3A003K0F – 5 IRED
118
I Encuentro de Investigadores en Infraestructuras Inteligentes
Fig. 2. Sistema de medida.
El experimento consistió en la colocación de un objeto cuadrado de un metro de lado
y color blanco a diversas distancias. La tabla 1 muestra los resultados obtenidos para
cada uno de los sensores.
Tabla 1. Medidas en laboratorio.
Distancia
20 cm
40 cm
60 cm
80 cm
100 cm
120 cm
140 cm
Ultrasonidos SFR02
Infr. GP2Y0A02YK
20
40
60
80
100
120
140
20
40
61
80
101
121
138
Infr.
GP2Y0A710K0F
80
101
120
139
Infr. 5IRED
GP2Y3A003K0F
I2
I3 I4
41
62
71
102
124
142
39 40
59 60
79 79
98 98
118 117
137 135
Puede observarse en los resultados de la tabla 1 que tanto el sensor de ultrasonidos
como los de infrarrojos permiten medir con cierta precisión la distancia. El que mayor
precisión y repetitividad presenta es el sensor de ultrasonidos SFR02. No obstante los
sensores de infrarrojos también obtienen muy buenos resultados.
2.2 Pruebas en condiciones reales
Las pruebas se realizan sobre un contenedor tipo “easy”, con dimensiones
aproximadas de 100x150x150 cm. Con el fin de acercarse a las condiciones reales de
funcionamiento, se han utilizado patrones de residuos de plástico, papel, cartón y
vidrio.
Las medidas se han realizado a tres niveles de llenado: nivel 1
(aproximadamente 100 cm), nivel 2 (aproximadamente 70 cm) y nivel 3
(aproximadamente 40 cm). Se muestra en la tabla 2 un resumen de los resultados
obtenidos.
119
I Encuentro de Investigadores en Infraestructuras Inteligentes
Tabla 2. Medidas en contenedor.
Material
Plástico
blanco
Plástico
negro
Papel y
cartón
Vidrio
Sensor
SFR02
GP2Y0A02YK
SFR02
GP2Y0A02YK
SFR02
GP2Y0A02YK
SFR02
GP2Y0A02YK
Nivel 1
102
100
102
98
108
108
108
101
102
99
102
98
108
108
108
103
Nivel 2
102
99
102
97
108
107
108
102
70
70
72
70
75
74
70
65
71
71
72
72
75
76
70
65
Nivel 3
71
70
72
72
75
75
70
65
37
36
36
31
44
46
40
44
36
36
36
30
44
46
40
45
Como se observa, cualquiera de los métodos ensayados da una medida adecuada para
determinar el nivel de llenado de los contenedores.
3 Conclusiones
En este trabajo se ha implementado un sistema multisensorial para la medida del nivel
de llenado de contenedores de residuos. En las pruebas llevadas a cabo se ha
estudiado la problemática asociada a la utilización de sensores de ultrasonidos e
infrarrojos para detectar el nivel de llenado de los contenedores. En líneas generales
se puede decir que los resultados obtenidos en las pruebas prácticas coinciden con los
resultados esperados en función del estudio previo llevado a cabo en el Laboratorio
del Departamento de Electrónica de la UAH.
Los resultados demuestran que es posible medir el nivel de llenado de los
contenedores de basura utilizando sensores de ultrasonidos e infrarrojos.
Acknowledgments
Estudio financiado por el Centro de Innovación de Infraestructuras Inteligentes (CI3).
Referencias
1.
2.
3.
Vicentini, F. Giusti, A. Rovetta, A. Fan, X. Heb, Q. Zhu, M. Liu, B. Sensorized waste
collection container for content estimation and collection optimization. In Waste
Management 29, 1467–1472 (2009).
Pudong Solid Waste Administration Office (PSWAO). Pudong Solid Waste Management
Annual Report. 2006.
Ahluwalia, P.K. Nema, A.K. Multi-objective reverse logistics model for integrated
computer waste management. Waste Management and Research 24 (6), 514–527, 2006.
120
36
36
36
31
44
46
40
45
I Encuentro de Investigadores en Infraestructuras Inteligentes
Real Time Monitoring of Railway Traffic Using Fiber
Bragg Grating Sensors
M. L. Filograno1*, P. Corredera1, A. Rodríguez-Barrios2, S. Martín-López1,
M. Rodríguez-Plaza3, A. Andrés-Alguacil3, M. González-Herráez2
1
Instituto de Óptica, CSIC, Madrid, Spain
*
[email protected].
2
Departamento de Electrónica, UAH, Alcalá de Henares, Spain
3
I & T Direction, Administrador de Infraestructuras Ferroviarias, ADIF, Madrid, Spain.
Abstract. In this work we present field tests concerning the application of Fiber
Bragg Grating (FBG) sensors for the monitoring of railway traffic. The test
campaigns are performed on the Spanish high speed line Madrid–Barcelona,
with different types of trains with maximum speeds between 250-300 km/h.
The different position of the FBG sensors in relation with the rail can be used
for different purposes such as train identification, axle counting, speed and
acceleration detection, wheel imperfections monitoring and dynamic load
calculation.
Keywords: Optical fiber, Bragg gratings, structural monitoring, high speed
train, weight in motion, dynamic load, rail.
1 Introduction
Over the last few decades, rail transport has become one of the most effective
means of transporting passengers and goods. According to recent statistics, the
number of passengers will be doubled within 10 years while the volume of goods
transported by railway will be tripled. Thus, it is expected that the axle load will
strongly increase in the next years, and the trains will operate at faster speeds. This
puts major pressure on the infrastructure and therefore innovative maintaining and
inspection techniques are required. Conventional monitoring systems in railway
infrastructures use strain gauge sensors to detect train dynamic load, train speed and
to assess the possibility of derailment.
One of the newest application areas of use of fiber sensors - and in particular fiber
Bragg gratings (FBG) - is the railway industry, where it is of utmost importance to
know the structural condition of rails, as well as that of freight and passenger trains to
ensure the highest degree of safety and reliable operation and to reduce the
maintenance for damages caused by wheel defects. In opposition to the conventional
strain gauges, FBG sensors assure immunity to electromagnetic fields (EMI), and can
be readily installed at low cost to measure important parameters for the railway
engineer in the monitoring of wheel defects and axle load of trains in commercial
operation at high speed. Previous works using FBG sensors has been reported in [1-
121
I Encuentro de Investigadores en Infraestructuras Inteligentes
3], to test the health of the rail and wheels, and as axle counter and imbalance
detector; and in [4] the FBGs were used to assess railway bridges. This work reports
some tests using FBGs for dynamic load measurements in a high-speed railway line.
These tests are done in the Madrid-Barcelona line.
2 Installation of FBG sensors in the rail
FBG sensor systems are among the best suited for railway monitoring due to their
many unique features that are not found in electrical monitoring systems [5,6] (EMI
and capability to multiplex a large number of sensors along a single fiber).
Furthermore the use of this technology allows simplifying the installations greatly,
reducing cost, remote sensing over long distances and inherent self-calibration
capability – strain and temperature information is encoded in the FBG reflection
wavelength which is an absolute parameter and thus the measurement value does not
depend directly of the intensity fluctuations of the optical source or the losses between
the FBGs and the interrogation unit. Also, fiber Bragg grating sensors can be
interrogated at very high-speeds (typically up to several hundred kHz).
In this campaign we selected six different positions of the sensors (total number of
20 FBG, 10 per track, Fig. 1) with respect to the rail. Three consecutive spaces
between sleepers have been selected. The first space with four FBG sensors: one in
the middle between the two sleepers and adapted to the rail foot - this FBG sensor is
working in pure flexion; a pair of them are adapted to the rail web with an angle with
respect to the rail neutral line of 45º - these two FBG sensors are working in shear and the last one is placed just on the rail neutral line in order to check temperature
changes in the rail. In the second section between sleepers we use the same sensor
structure without the temperature FBG and the third section has a vertical sensor just
in the centre of the sleeper and three flexion sensors placed at different distances
between the sleepers.
Fig. 1. Disposition of 10 FBG sensors along one of the rails.
The FBG sensors are directly pasted with an epoxy resin on the rail tracks and are
connected by optical cables to an optical fiber backbone that runs bellow tracks to the
auxiliary office where is located the PC with the demodulation unit (BraggSCOPE
technology[7]) to read the sensors, store the data and display the train footprints. The
pass of the trains displayed and stored with this PC can also be observed with any
122
I Encuentro de Investigadores en Infraestructuras Inteligentes
other remote computer in real time through VNC-protocol. The installed FBG sensors
have been running one year without losses in their performances even after snows and
extremely hot summer days.
3 Results and discussion
Samples of the traces obtained with the FBG sensors are in fig. 2. Each individual
wheel passing through the FBG sensor is clearly identifiable. These FBG sensor
traces show a high immunity to electromagnetic fields. No noise coming from the
catenary can be seen, in comparison with the one appearing in conventional strain
gauges.
Since the distances between the wheels are known, train speed and acceleration can
be easily computed by using just one FBG sensor, for example average speed is
calculated considering the total distance between the first and last axle divided by the
time spent in detecting the whole passage of the train.
Axle counting, the number of successive peaks in the traces, permit the
identification of the type of train considering the train design when because we have
only train with a different number of axles.
Fig. 2. Axle counters, train type identification and velocity calculation. In (a) sensor P5 identify
a S103 train (32 axles); in (b) sensor P1 identifies a maintenance locomotive at 160 km/h.
The case in fig. 2(b) shows abnormal vibrations in the trace that advice of an
unhealthy wheel passes over the rail. This abnormal vibration appears clearly in the
traces obtained by two consecutive sensors.
Finally we have studied the dynamic load of the train passing in the regular speed
(200-300 km/h) using the sensors in P3 and P4. These two sensors are located in the
rail web with an angle of 45º with respect to the rail neutral fiber. Figure 3 shows
obtained trace for the dynamic load (Q) calculated with the difference of the traces of
P3 and P4 expressed in µε (using the theory of elasticity [8]):
Qxz =
2ε xz GbG I y
Sy
= 0,34688ε xz ( KN )
(1)
where Qxz is the vertical load between sleepers, G is the tangential elasticity
module, bG is the width of the section in the rail neutral fiber, Iy the inertia momentum
of the section and Sy is the static momentum of the lower part of the rail.
123
Dynamic Load [t]
I Encuentro de Investigadores en Infraestructuras Inteligentes
1 4
1 2
1 0
8
6
4
2
0
-2
-4
6
7
tim e [s ]
8
9
Fig. 3. Calculation of the dynamic load for a S103 train running in track I with the
combination of the traces of the shears sensors (positions P3 and P4). The dynamic load of each
wheel that oscillates between 7 and 9 tons, a little higher than the static load defined (mean
mass per axle is 15 t in the S103).
4 Conclusions
In conclusion, we have shown that fiber optic sensing technology is adequate for
railway security monitoring systems. In this particular paper, we have presented a
preliminary study on the use of FBG sensors for monitoring railway footprints of high
speed trains (at speeds between 200 and 300 km/h). We have demonstrated the
possibility of using FBGs to know: train speed and acceleration, axle counter and
train type identification. Further studies must be done in order to improve the
dynamic load estimation results and the determination of the health of both the rail
and the wheels.
This study has been supported by Ministerio de Fomento through project MIFFO
(reference FOM/3774/2007) and by the Comunidad Autónoma de Madrid through
project FACTOTEM2_CM (S2009/ESP-1781).
References
1. K. Y. Lee, K. K. Lee, S. L. Ho, “Exploration of Using FBG Sensor for Axle Counter in
Railway Engineering,“ WSEAS Trans. on Sys., 6, 2004, pp. 2440-2447.
2. S.L. Ho, K.Y. Lee, K.K. Lee, H.Y. Tam, W.H. Chung, S.Y. Liu, C.M. Yip and T.K. Ho, ‘A
comprehensive condition monitoring of modern railway’, IET Intl. Conf. on Railway
Condition Monitoring, pp.125-129, (2006).
3. H.Y. TAM, S.Y. Liu, B.O. Guan, W.H. Chung, T.H.T Chan, and L.K. Cheng. Fiber Bragg
Grating Sensors for Structural and Raihvay Applications (Invited Paper) Photonics Asia
2004, Beijing, 8•12 November 2004
4. T.H.T. Chan, L. Yu, H.Y. Tam, Y.Q. Ni, S.Y. Liu, W.H. Chung, L.K. Cheng. Fiber Bragg
grating sensors for structural health monitoring of Tsing Ma bridge: Background and
experimental observation. Engineering Structures 28 (2006) 648–659.
5. J. Dakin and Brain Culshaw, Optical fiber Sensor: Principles and Components, Artech
House, Norwood, MA, 1988
6. J. M. Lopez - Higuera, Ed, "Handbook of optical fiber sensing Technology," J. Wiely &
Sons, USA, 2004
7. www.fibersensing.com
8. López-Pita, Andrés. Infraestructuras Ferroviarias. Ediciones UPC. Barcelona 2006
124
I Encuentro de Investigadores en Infraestructuras Inteligentes
Detección y clasificación automática de vehículos por
medio del sonido
Enrique Alexandre, Roberto Gil, Lucas Cuadra, Raúl Vicen, Lorena Álvarez,
David Ayllón, Manuel Utrilla, Manuel Rosa
Dpto. De Teoría de la Señal y Comunicaciones.
Escuela Politécnica Superior, Universidad de Alcalá
28805 – Alcalá de Henares
[email protected]
Abstract. En este trabajo se propone un sistema capaz de detectar y clasificar
de forma automática los vehículos que circulan por una vía por medio
exclusivamente del sonido. El sistema contempla el estándar ISO 1996-2 sobre
la determinación de los niveles de ruido ambiente, en cuanto a la necesidad de
tener en cuenta al menos dos clases de vehículos a la hora de realizar la medida.
Los resultados preliminaries obtenidos muestran una tasa de error inferior a la
media obtenida por persona encargada de clasificar los vehículos.
Keywords: Ruido de tráfico. Clasificación de sonidos.
1 Introducción
El estándar internacional ISO 1996-2, “Acoustics: Description, measurement and
assessment of environmental noise. Part 2: Determination of environmental noise
levels” establece en su punto 6.2.1 que para medir el nivel equivalente de presión
sonora debido a ruido de tráfico es necesario contar el número de vehículos que pasan
durante el intervalo de medida. Asimismo se establece que la medición debe
realizarse teniendo en cuenta al menos dos clases de vehículos, “pesados” y “ligeros”,
entendiendo por pesados a todos aquellos cuyo peso exceda los 3500 kg. Para realizar
esta labor se puede contar con una persona encargada de “clasificar” a mano los
vehículos mientras se realiza la medida. Otras alternativas para detectar el tipo de
vehículo son el uso de cámaras de video o la instalación de una báscula que determine
el peso del vehículo. Aunque la norma especifica que sólo es necesario tener en
cuenta, al menos, dos clases de vehículos, la presente invención contempla la
posibilidad de clasificar entre un número mayor de clases. Para ello basta con entrenar
el algoritmo de clasificación para adaptarse a esta nueva situación.
El presente trabajo propone el uso de parámetros relacionados con el timbre de la
señal para generar un vector, que será utilizado por un clasificador lineal de cara a
designar la clase de dicho vector. La principal ventaja del método propuesto radica en
el reducido coste computacional, lo que permite su implementación en plataformas
hardware de bajo coste. El sistema permite la clasificación de los vehículos en un
125
I Encuentro de Investigadores en Infraestructuras Inteligentes
número arbitrario de clases, incluyendo clases mixtas como “paso simultáneo de
turismo y vehículo pesado”. Para ello tan solo es necesario entrenar el clasificador
acorde con la situación prevista.
La ventaja del método propuesto consiste en que con un simple micrófono, o
varios, si se quiere estimar la velocidad, se puede determinar el tipo de vehículo que
circula por la vía, pudiéndose así realizar todas las estadísticas que sean necesarias.
Además debe considerarse la posibilidad de que alguno de los micrófonos del sistema
se utilice también para medir el nivel de presión sonora (SPL).
2 Método propuesto
A partir de cada fichero de sonido obtenido por el micrófono, el bloque de extracción
de características transforma los niveles de presión acústica digitalizados en un vector
de valores que serán utilizados por el clasificador para determinar la clase a la que
pertenece el sonido.
A partir de cada fichero de audio se obtendrán dos conjuntos de características:
• Coeficientes MFCC (Mel-Frequency Cepstral Coefficients) [1]. Se trata de
un conjunto de coeficientes calculados a partir de la STFT [2] que se han
venido empleando de forma habitual en tareas de reconocimiento de voz. La
aplicación de estos parámetros para el modelado de sonido fue propuesta por
primera vez por Logan en [3].
• Densidad espectral de potencia utilizando el método Welch [4].
Estos parámetros serán los que se introduzcan al clasificador, encargado de
determinar la clase a la que pertenece el sonido.
El clasificador lineal de mínimos cuadrados realiza su decisión en base al resultado
de una combinación lineal de las características de entrada:
L
%
"
g = f $ b + ! xn wn '
&
# n=1
xn representa el valor de cada una de las características de entrada, wn los
pesos del clasificador y b la bias.
donde
Para describir el proceso, definamos la siguiente matriz que incluye todas las
características de entrada:
!
#
#
Q =#
#
#
"
x11
x12
!
x L1
!
xL 2
1
1
! x1N $
&
" ! &
! x LN &
&
! 1 &%
donde N representa el número de patrones de entrada y L la dimensión de cada uno
de estos patrones. Los pesos del clasificador se pueden definir como:
126
I Encuentro de Investigadores en Infraestructuras Inteligentes
! w
# 11
# w
V =# 12
# !
# w1C
"
w21 ! wL1
w22
! wL 2
! " !
w2C ! wLC
b1 $
&
b2 &
&
! &
bC &%
donde C representa el número de clases a distinguir (3 en nuestro caso). La salida
del clasificador se puede escribir por tanto como:
Y= V ! Q
donde Y es una matriz con C filas y N columnas. El error se define por tanto como:
E = Y !T = V "Q !T
donde T representa una matriz CxN que contiene las clases reales a las que
pertenece cada uno de los patrones de entrada. Si definimos el error cuadrático medio
como:
1 N C 2
!! ecn
NC n=1 c=1
es posible derivar con respecto a los coeficientes wij y minimizar el error cuadrático
MSE =
medio. El resultado obtenido es:
V =T ! QT ! (Q ! QT )
"1
3 Resultados preliminares
Para la obtención de los resultados se ha creado una base de datos de 277 ficheros de
audio correspondientes a 54 motos, 98 camiones y 125 coches. Cada fichero sólo
incluye a un vehículo, y su duración es variable. Los ficheros se grabaron utilizando
un único micrófono con una frecuencia de muestreo de 44.1 kHz.
A fin de mejorar la fiabilidad de los resultados, se ha empleado una estrategia
leave-one-out. Esto quiere decir que cada fichero se utilizará para testear mientras que
los 276 restantes se utilizarán para entrenar el clasificador, repitiendo este proceso
varias veces.
Como primer paso se realizó una prueba subjetiva de audición con un total de 10
personas, a fin de valorar la capacidad de distinguir el tipo de vehículo por medio del
sonido. Estas pruebas concluyeron que la probabilidad de error media de una persona
a la hora de distinguir entre moto, camión o coche es de un 17,33%.
Tabla 1. Matriz de resultados obtenida con el algoritmo de clasificación propuesto.
Moto
Coche
Camión
Moto
43
0
4
Coche
3
121
15
127
Camión
8
4
79
I Encuentro de Investigadores en Infraestructuras Inteligentes
Con el sistema automático de clasificación propuesto se obtuvieron los resultados
que se muestran en la Tabla 1. De la misma se puede deducir que la probabilidad
media de error del sistema es de un 12,27%.
4 Trabajo futuro
El sistema propuesto puede mejorarse de forma senclla introduciendo un bloque
dedicado a la estimación de la velocidad que analice las señales y estime la velocidad
del vehículo.
Para ello, se estima la frecuencia fundamental del sonido en el instante de paso
f 0 . Posteriormente, se estima la frecuencia fundamental del
sonido después de haber pasado frente al micrófono, obteniéndose un valor f1 . Con
frente al micrófono,
esto, es posible obtener la velocidad del vehículo despejando en la ecuación:
"
%
$ 1 '
f1 = f0 ! $
!
'
$ 1+ v '
# c&
Donde v representa la velocidad del vehículo, y c la velocidad de propagación del
!
sonido. Para estimar el instante de paso del vehículo frente al micrófono basta con
localizar el máximo de la señal, mientras que para determinar la dirección de
circulación del vehículo la realización preferida consiste en utilizar las señales de dos
!micrófonos, calculando el valor máximo!de la correlación entre ambas definida como:
$ N!m!1
&& " x[n + m] y*[n] m # 0
R̂xy [m] = % n=0
& *
m<0
&' R̂yx [!m]
Dependiendo de si el máximo de la correlación se encuentra en un valor positivo o
negativo de m, se puede deducir que el vehículo se acerca o se aleja.
Referencias
1. Tzanetakis, G., Cook, P.: Musical genre classification of audio signals. IEEE Transactions
on speech and audio processing, vol. 10, no. 5, pp. 293–302 (2002)
2. Davis, S., Mermelstein, P.: Experiments in syllable-based recognition of continuous speech.
IEEE Transactions on Acoustics, Speech and Signal Processing, vol. 28, pp. 357–366 (1980)
3. Logan, B.: Mel frequency cepstral coefficients for music modeling. In: Int. Symp. Music
Information Retrieval ISMIR, (2000)
4. Welch, P.: The use of fast fourier transform for the estimation of power spectra: A method
based on time averaging over short, modified periodograms. IEEE Trans. Audio
Electroacoustics, vol. AU-15, pp. 70–73 (1967).
128
I Encuentro de Investigadores en Infraestructuras Inteligentes
Herramienta de localización a demanda basada en
telefonía móvil y GPS
Juan Ignacio Godino LLorente1, Fernando Cruz Roldán2, Manuel Blanco Velasco2,
Victor Osma Ruíz1, Nicolás Sáenz Lechón1, y Juana M. Gutiérrez Arriola1,
1
Dpto. de Ingeniería de Circuitos y Sistemas, Universidad Politécnica de Madrid
1
Dpto. de Teoría de la Señal y Comunicaciones, Universidad de Alcalá
[email protected]; [email protected]; [email protected]; [email protected];
[email protected]; [email protected]
Abstract. En este trabajo se muestra un servicio de localización de personas
basado en los estándares de telefonía móvil actuales y las plataformas de
posicionamiento global GPS, estando desarrollado a partir de un protocolo
peer-2-peer implementado mediante el intercambio de mensajes SMS y/o
MMS, resultando independiente de terceras partes. El sistema final funciona
sobre terminales de telefonía móvil estándar equipados con un software de fácil
instalación y uso que opera con independencia de los operadores, garantizando
así la privacidad de los usuarios. La aplicación está diseñada específicamente
para facilitar la localización exacta de aquellos usuarios que tuvieran activado el
servicio en su terminal móvil.
Keywords: GPS, GPRS, posicionamiento, localización.
1 Introducción
Este trabajo surge al detectarse la necesidad de sistemas fiables y robustos de
localización para personas que, bien por su edad, bien por enfermedad, tengan
tendencia a desorientarse incluso en entornos conocidos. Del mismo modo, es
aplicable a profesionales que por motivos de trabajo requieran ser localizados.
En la actualidad existen sistemas de localización basados en telefonía móvil, pero su
precisión queda limitada al tamaño de las celdas de cobertura de las antenas en las que
se basa esta tecnología, lo que hace que sólo sean fiables en entornos urbanos con gran
densidad de población. Asimismo, existen sistemas basados en GPS que hacen uso de
centros de intermediación (Location Based Service Provider-LBDP) para proporcionar
el servicio de localización, lo que supone un coste adicional y una pérdida de
privacidad.
La novedad de este trabajo respecto a los servicios de teleasistencia disponibles reside
en la eliminación de la necesidad de centros de coordinación del servicio así como de
Este proyecto ha sido parcialmente financiado por el Ministerio de Asuntos Sociales, resolución de 4 de
junio de 2009, del Instituto de Mayores y Servicios Sociales.
129
I Encuentro de Investigadores en Infraestructuras Inteligentes
la intervención del operador de telefonía en el proceso de localización. Con esta
propuesta se permite directamente la supervisión de la persona por otras de su entorno
profesional y/o socio-familiar, eliminando el coste económico y burocrático de los
servicios de teleasistencia actuales, y reduciendo el coste económico del servicio al
del intercambio de unos pocos mensajes cortos.
Concretamente, se ha desarrollado un sistema que permite la localización de la
persona bajo demanda, e incluso que avisa en algunos casos, como si se sobrepasan
los límites de un área determinada o se permanece inmóvil durante un período
excesivo de tiempo. Lo específico de la propuesta es que se trata de un sistema de
bajo coste que no necesita intervención de ningún LBSP, lo que garantiza la
privacidad del servicio. El sistema propuesto se basa en el uso de terminales de
telefonía móvil estándar que se comunican mediante un protocolo peer-to-peer (P2P)
predefinido que se establece mediante el intercambio de mensajes cortos de tipo SMS
o MMS.
2 Antecedentes y Estado Actual
Actualmente existen diversos sistemas de posicionamiento basados en la utilización
de la telefonía móvil GSM (Global System Mobile) como tecnología subyacente [1].
GSM es la tecnología de comunicaciones móviles más extendida hoy en día en todo el
mundo [2]. Grosso modo, la infraestructura GSM está compuesta por 3 elementos: el
terminal móvil de usuario, las estaciones base (antenas de telefonía móvil), y por
último, la central del operador. Las estaciones base GSM dan cobertura actualmente a
casi el 100% del territorio español [3], y todos los terminales móviles conectados a la
red están dados de alta en el sistema, pudiendo ser localizados geográficamente en un
momento determinado con una resolución equivalente al tamaño del área geográfica
cubierta por una estación base, que puede oscilar desde los centenares de metros de
radio en zonas urbanas a dos o tres decenas de kilómetros en zonas rurales [1]. En la
actualidad, GSM ha evolucionado y aparecen nuevas tecnologías con mayor
capacidad como UMTS (Universal Mobile Telecommunications System) [4], lo que
sin duda hará que este tipo de aplicaciones tengan que actualizarse para su
funcionamiento.
Por otro lado, el uso del sistema GPS (Global Positioning System) [5], por su
coste, fiabilidad y exactitud para aplicaciones civiles es, a día de hoy, una alternativa
para este tipo de aplicaciones [1]. En esencia, un sistema GPS es un sistema de
posicionamiento basado en un conjunto de satélites y estaciones terrestres. Mediante
triangulación de la posición de los satélites se puede averiguar la localización,
mientras que las estaciones terrestres permiten corregir ciertas desviaciones en el
proceso. En la actualidad los sistemas GPS han sido muy miniaturizados y es fácil
encontrar terminales de telefonía móvil que incorporan un sistema GPS.
De modo general, podemos decir que las tecnologías de localización basadas
en GPS y en celdas son complementarias, dado que los sistemas GPS presentan el
inconveniente de que el receptor ha de estar “a la vista” del satélite; por lo que si el
enfermo que porta el receptor GPS se sitúa en algún lugar “a cubierto” (Metro, túnel,
edificio, etc.), dejará de estar localizable mediante esta tecnología. En contraposición
130
I Encuentro de Investigadores en Infraestructuras Inteligentes
a ello, en prácticamente casi cualquier lugar de una zona con densidad de población
media o alta es posible la localización. Incluso, en la actualidad se están desarrollando
tecnologías que permitan la localización de móviles en espacios interiores, como es el
caso de la compañía Nokia [6].
El empleo de tecnologías de localización en aplicaciones relacionadas con la
autonomía personal y las ayudas técnicas se viene proponiendo y experimentando a lo
largo del último lustro [7]. Entre las iniciativas desarrolladas en España podemos
destacar [8], [9], [10] y [11].
La herramienta propuesta en este trabajo se plantea como un complemento a
las actuales existentes y/o en desarrollo. Su novedad es que no necesita de
dispositivos específicos al funcionar sobre plataformas de telefonía móvil estándar a
la vez que, al contrario de las existentes, no necesita de intervención alguna de las
operadoras de telefonía móvil. Ni siquiera se hace necesaria la presencia de un centro
de operaciones ni de intermediación, con lo que se trataría de una herramienta de
comunicación usuario a usuario independiente. Se trata de una plataforma que permite
dar servicios de localización a demanda basados en la combinación telefonía
móvil/GPS que permite el segumiento de la posición de un terminal móvil desde otro
prestando especial antención a los debidos requisitos de privacidad y seguridad.
Además, el sistema propuesto presenta potencialidad de integración en dispositivos
tipo “brazalete” de modo que pueda proporcionar medidas de constante vitales
(temperatura, ritmo cardíaco, etc.) además de localización.
3 Descripción del Sistema
El sistema está formado por un dispositivo de usuario final para el paciente (o de
recepción del servicio), S1, y un dispositivo de usuario inicial para el cuidador (o de
solicitud del servicio), S2, que es el encargado de solicitar la localización. Tanto S1
como S2 son dos terminales de telefonía móvil estándar a los que se les ha instalado
un paquete software que desarrolla el servicio. El protocolo P2P desarrollado consta
de tres fases: una primera de sincronización, una segunda de localización propiamente
dicha, y una tercer de finalización del servicio. Durante la etapa de sincronización se
verifica la identidad tanto de los dispositivos como de los usuarios que van a
establecer comunicación (véase apartado relativo a cuestiones éticas). Una vez que
ambos dispositivos se encuentran sincronizados el servicio pasa a la fase de
localización que está dotada de las siguientes características:
•
•
Capacidad de determinación de la posición en modo “ÚNICO” y en modo
“SEGUIMIENTO”. En modo “ÚNICO” las peticiones de localización son
solicitadas por el dispositivo de usuario inicial, obteniéndose una
respuesta de posición para cada petición individual. En modo
“SEGUIMIENTO” se fija una hora de comienzo, la hora de final, y una
latencia temporal, de forma que el sistema de usuario final devuelve la
posición con intervalos iguales a la latencia temporal.
Está dotado de alarmas de “FUERA DE ZONA”. Se puede establecer un
área dada, de modo tal que si los límites de la misma son sobrepasados por
131
I Encuentro de Investigadores en Infraestructuras Inteligentes
•
•
•
•
el paciente, se active automáticamente una alarma que establezca de modo
inmediato aviso de lo ocurrido al responsable del paciente.
Está dotado de alarmas de “AUSENCIA DE MOVIMIENTO”. La unidad
de recepción, una vez activado el servicio, puede realizar un seguimiento
del movimiento del paciente y generar un aviso de alarma en caso de que
la posición no se vea alterada en un determinado intervalo de tiempo.
Está dotado de alarmas de “ACCIDENTE” que se pueden activar desde la
unidad de recepción en caso de que se detecten patrones de movimiento
extremos medidos por los acelerómetros disponibles en los terminales de
telefonía móvil actuales.
Con objeto de evitar un uso que pudiera contravenir la privacidad de las
personas, el dispositivo de usuario final, está dotado de activación manual
o automática. La utilidad automática está indicada para personas con
discapacidades cognitivas, mientras que la activación manual puede ser
utilizada para otro tipo de aplicaciones.
El sistema recoge de forma continuada la localización del paciente y la
hora a la que se obtiene dicha localización, de manera que, en caso de falta
de cobertura de satélites GPS, si se realiza una petición, se pueda enviar el
último posicionamiento correcto.
Referencias
1.
“Location based services”. Ver. 3.1.0. GSM Association. Enero 2003.
http://www.gsmworld.com/documents/lbs/se23.pdf
2. José María Hernando Rábanos: “Comunicaciones móviles GSM”. Fundación Airtel, D.L.
1999.
3. “GSM roaming – Spain” GSM Association. http://www.gsmworld.com/roaming/gsminfo/
cou_es.shtml.
4. Cayetano Lluch Mesquida, José M. Hernando Rábanos: “Comunicaciones móviles de
tercera generación: UMTS”. Madrid. Telefónica Móviles España , D.L. 2000.
5. “GPS World” http://www.gpsworld.com.
6. “Indoor positioning coming to life?” Nokia Conversations. Septiembre 2008.
http://conversations.nokia.com/home/2008/09/indoor-position.html.
7. “Tecnologías de la información y las comunicaciones y discapacidad. Dependencia y
diversidad”. J. Reig coord. Fundación Vodafone. 2005.
8. Proyecto europeo “MobilAlarm. Validating European Mobil Alarm Services for Inclusion
and Independent Living” http://www.mobilalarm-eu.org/index.htm.
9. Proyecto piloto de la Xunta de Galicia. “Dispositivos GPRS permitirán localizar a mayores
afectados por demencias leves” http://www.belt.es/noticias/2004/junio/28/gprs.htm.
10.“Brazalete
Maya”.
Departamento
de
ByT
de
la
UPM.
http://www.belt.es/noticias/2004/julio/29/teleasistencia.htm.
11.“Movistar
accesible.
Brazalete
Columba”
Telefónica
Movistar.
http://www.empresa.movistar.es/brazaletecolumba.htm.
132
I Encuentro de Investigadores en Infraestructuras Inteligentes
Development of low consumption HVPS for MAPMTs
Space applications
H. Prieto, J. A. Morales de los Ríos, G. Sáez-Cano,
N. Pacheco, M. D. Rodríguez Frías and L. del Peral,
SPace and Astroparticle (SPAS) Group. Universidad de Alcalá. Spain.
Abstract. The main aim of this work is the fully design of a new generation of
low consumption High Voltage Power Supply (HVPS) for the Multi-Anode
Photo-Multiplier Tubes (MAPMTs) for Space applications. It is necessary to
develop a high voltage divider to bring nominal voltage to the MAPMT
dynodes, as well as build a protective circuit to avoid large quantities of sudden
light arriving the PMT, such as electric discharges that suddenly appear in the
atmosphere. Moreover, we have performed the simulations needed to test the
circuit designed by using the PSpice software. Furthermore, we have proposed
a new circuit design, to simulate and evaluate several critical variables such as
consumption, weight and reliability.
Keywords: Space electronics, High Voltage Power Supply, PMT.
1 Introduction
Nowadays there are many space applications demanding DC (Direct Current) voltage
dividers. In fact PMTs [1, 2] associated electronics which support the mission
requirements for space electronics, such as hard radiation protection, low power
consumption, weight and reliability. Usually resistive voltage dividers are used, since
they show acceptable performance, but this solution causes very high power
consumption, reducing the efficiency when it is used for space applications.
New solutions have emerged to reduce this consumption; this new technology is
called active voltage dividers, consisting of a series of high impedance resistors
connected in parallel with a series of FETs (Field-Effect Transistor) [3]. The resistors
provide reference voltages for each stage of the active set, and apply it to the dynode.
An ideal active voltage divider is one who can perceive these voltages, in a wide
range of currents in the anode without undesirable effects on the load. The active
voltage dividers [4, 5] can be used for pulse applications, adding decoupling
capacitors. These can be constructed in the final stage FETs and resistors in the early
stages.
The work has been mainly focused in two topics: the study of the different types of
active voltage divided from the bibliography, related to the power consumption, gain
and reliability rates; and simulation of the behavior of the different models of divisors
133
I Encuentro de Investigadores en Infraestructuras Inteligentes
under several working conditions, to evaluate the better performance for an HVPS
suitable for space applications.
2 Objectives and technical requirements of the proposed circuit
Among the objectives proposed in this work are first to simulate different voltage
dividers, and finally develop this low power HVPS covering the space requirements.
The methodology to achieve these objectives will be the following:




Simulations with the Pspice software of the different circuits proposed in the
bibliography that meets all the space technical requirements of this work [6].
To design of a prototype and evaluate its critical variables such as
consumption, weight and reliability by simulation.
To build a HVPS test circuit to perform electronic tests to characterize the
circuit behaviour under several working conditions.
Development of the voltage divider tests for the low consumption HVPS
voltage divider by JIRA Test Software [7].
The HVPS developed in this work has been adapted to serve as power supply for a
HAMAMATSU model 8900-M36 MAPMT space qualified with 15 dynodes with a
nominal voltage of 55 V. The high voltage divider will feed the dynode of MAPMT
from a high voltage source of -900 V and a power consumption of less than one W
and minimum time response. The technical requirements are the following:





Number of Stages:15
Voltage between stages: 55V
Base current: 1µA
Total current : 15µA
The value of the equivalent resistor divider is given by the ration between the
dynode voltage and the total intensity:
R = 55 V/15 µA = 3.7 MΩ
134
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Voltage dividers used for PMT power source.

Resistive: A resistive divider is composed of purely resistive elements (Fig
1).
Fig 1. Resistive Voltage divider

Active: An active divider consists of a string of high impedance resistors
connected in parallel with a string of FETs. The resistors provide reference
voltages for each stage of the active string to pick off and apply to the
dynodes. An ideal active divider is one that can sense these voltages over the
full dynamic range of anode currents without unwanted load effects. (Fig.2)
Buy SmartDraw!- purchased copies print this
document without a watermark .
Visit www.smartdraw.com or call 1-800-768-3729.
Fig 2. Active Voltage divider
Buy SmartDraw !- purchased copies print this
document without a watermark .
Visit www.smartdraw.com or call 1-800-768-3729.
135
I Encuentro de Investigadores en Infraestructuras Inteligentes
Divider
Active
Resistive
Advantages





Disadvantages

Transistors vary due to currents needs.
Minimum consumption.
Stability against different kind of
loads.
Stability
Simples,
cheap
components.



and
stables


Greater number of components and
design complexity.
The transistors generates a parasite
capacitance, increasing the current at
the start up.
Need for a current regulator at the
input.
Need more current because it is
necessary to calculate the resistances
array in case of more consumption.
Considerable time response.
More consumption due to load
variation.
Table. 1. Voltage divider Advantages and disadvantages obtained from our PSPICE
simulations.
Equipment
Resistive
Active
Power
consumption
0.718W
102 mW
Ripple
Time Response
0.2mV
0.2s
0.2mV
0.8s
Table.2 .Voltage divider comparisons
136
I Encuentro de Investigadores en Infraestructuras Inteligentes
Fig.3. Low consumption HVPS proposed active circuit.
137
I Encuentro de Investigadores en Infraestructuras Inteligentes
5 Conclusions
The project being undertaken, contribute greatly to identify and highlight the points to
be covered, and to carry out a successful implementation in the supply system of
photomultipliers for space applications. Among the points that have been considered
and which are more important in a space project are to detect what are the real needs
of the system, functionality, and the relevance of power system of photomultipliers
for space applications.
The data obtained by the simulations (see table 1-2) are shown consistent with those
required, achieving a minimum power consumption, with an acceptable time
response, making it ideal for space missions, reaching the main objective of this
work,design a prototype (Fig 3) by simulation and evaluate critical variables as
consumption, and reliability for use in the 8900-M36 MAPMT in space missions.
References
1. Phillips, 1994. Photomultiplier tubes principlies & applications, chapter 5
2. S. Argiro, D.V. Camin, M. Destro, C.K. Guérard. Passive and Active PMT Biasing
Networks.GAP-98-063. (2002).
3. Robert Boylestad, 2009. Electronics Devices and circuit theory, tenth edition, Chapter 7,
FET Biasing.
4. G. Landi, P. L. Tasselli.HV-LV distribution in EUSO. (2002)
5. G. Landi and P. L. Tasselli. Voltage Divider for the EUSO pmts. (2002)
6.National Instruments Home Page http://www.ni.com/multisim/
7.JIRA:
Issue
and
Project
tracking.
Atlasian
Home
page
http://www.atlassian.com/software/jira/
138
I Encuentro de Investigadores en Infraestructuras Inteligentes
A computing model for the Science Data Center of high
energy Physics Space-based experiments.
J. A. Morales de los Ríos1, M. D. Rodríguez-Frías1,
L. del Peral1, H. Prieto1, N. Pacheco1, G. Sáez-Cano1, M. J. Garcia-Alba1,
R. Ramos2, F. Prieto2, M. Boton2, J. Moreno-Ventas2 & M. Cotallo.2
1
2
Space & AStroparticle (SPAS) Group, University of Alcalá, Madrid, Spain.
Centro Extremeño de Tecnologías Avanzadas (CETA-CIEMAT) Trujillo, Spain.
Email: [email protected] Web: http://spas.uah.es
Abstract. For High Energy Physic (HEP) experiments the huge amount of data
and complex analysis algorithms require the use of advanced GRID
computational resources. Therefore an exhaustive analysis of the computational
requirements and resources, in the frame of the GRID architecture, intended for
space based mission software and computing infrastructure have been achieved.
Moreover solutions to account for the software and data repositories as well as
a proper administrative organization are pointed out.
Keywords: Computing, GRID, JEM-EUSO, HEP.
1 Introduction
Indirect detection of radiation from outside the Earth surface was first discovered by
Victor Hess in 1912 [1]. These high energy particles were called Cosmic Rays and
still represent a big challenge for physicists and astronomers. A huge progress has
been made since then from the theoretical and experimental point of view but
fundamental questions are still opened: where do they come from?, how are they
accelerated to such high energies?, what is the composition of the highest energy
cosmic rays?, how to interpret the features observed in the energy spectrum?, and so
on. Furthermore, these questions are intrinsically linked making it a more complex
problem. For High Energy Physics (HEP) experiments the huge amount of data and
complex analysis algorithms require the use of advanced GRID computational
resources, but the use of this resources demands higher software complexity, highly
specialized computing scientists and high planning and organization. Space missions
as the JEM-EUSO Space observatory are not the exception, huge quantities of data
are required to simulate, validate and gather the results that the scientific community
expects from the experiment [2]. The computing model we are proposing is just the
first step towards a properly working GRID computing architecture.
139
I Encuentro de Investigadores en Infraestructuras Inteligentes
2 Data rate requirements for LHC experiments, ground-based
There is a big difference between Space-based and ground-based experiments in the
amount of data gather and how is processed. In a deeper comparison, The ALICE
Large Hadron Collider (LHC) experiment gathers data at a rate from 100Mb/s to
1.25Gb/s [3], and all the processing tasks have to be split into three Tier levels. Also
for the ATLAS LHC experiment the data rate can be up to 10Gb/s and the data
processing tasks are sent to a three Tier level [4]. On the other hand, for ground-based
experiments as the Pierre Auger Observatory (PAO), has resources installed on GRID
for up to 100Tb [5], While for the AMS LHC experiment the data rate is calculated to
be 60Tb per year, and 200Tb for the entire experiment [6], and for the JEM-EUSO
Space Observatory the estimation is 3Gb/day of RAW data, because of data downlink
limits of 330Kbps, and will be hosted in the SODC (Science Operations and Data
Centre) [7]. As conclusion, Space-based experiments have lower data rates than
ground-based ones and the Science data can be managed in one single center, but
proper organization and studies have to be performed for the Science data center
design and resources estimation well in advance to the launch of the mission.
3 Computational Requirements.
We will center the study in Cosmic Rays research missions like JEM-EUSO, but the
following procedure is also applicable to other Space based missions. Each mission
needs to evaluate the complete physical processes of the detection of a cosmic ray
reaching the Earth. In this process includes several kind of software involved. The
injection in the Earth’s atmosphere of the primary cosmic ray and the generation of
the Extensive Air Shower (EAS); Simulation of the detector response; the
reconstruction of the physical parameters of the primary cosmic ray from the detector
data; and finally the backtracking of the particle from the Earth back through the
Space to find out the arrival direction of the primary particle [8].
After getting familiarized with the software, we proceed to make a computational
requirements study, first by defining a set of Use-Cases Scenarios and then evaluating
the needs for each set of tasks, like; Monte-Carlo Simulation, RAW data and
Analysis, Calibration tasks and resources for Unscheduled tasks made by the
scientists working on the collaboration [7]. Monte-Carlo data will be generated in an
amount of 100 or 1000 times faster to collect real data (more than 1,000 events with
energy higher than 7x1019eV ≤ E ≤ 1021eV are expected during the JEM-EUSO
operation). Based on 1000 real events, Monte Carlo should be around 100.000 to
1.000.000 events (1 event = 28,8 Tflops using a Wheatstone test [9] and measuring
the time needed by a MC software).
For the shower reconstruction and the detector simulation tasks, all the physicists of
the collaboration are potentially involved as they might apply customized algorithms
on data subsets. This way of performing analysis is called chaotic analysis. However
additionally it is foreseen to perform scheduled analysis over the entire set of data.
This scheduled analysis will group in each pass all the official algorithms. The time
140
I Encuentro de Investigadores en Infraestructuras Inteligentes
needed to analyze reconstructed events depends on the complexity of the analysis
algorithm and on the overhead introduced by the GRID. The latter can only be
predicted once the analysis on the GRID has been done with the final middleware and
at the final scale. The processing power we have considered is an average value that
can vary largely from one analysis to the other.
Fig. 1 CPU Requirements.
Estimated in PFLOPS
(petaflops = 1015 flops).
Yearly based estimation
The
MC-Simulation
is
estimated
using
the
performance measured with
the average of several events
using MC-Simulators and
estimating a base of 1million
events needed, Raw data
analysis is estimated to be
around 28% of Monte Carlo
based in our experience with software for data analysis. For Unscheduled tasks
estimation is the same for Raw data analysis, and calibration is estimated to be half
the needs for Unscheduled tasks, but prioritized [10,11] (Fig. 1).
All data produced by the detector should be stored permanently for the duration of the
experiment. This includes the raw data, one or more copies of the raw data, one set of
Monte-Carlo data, and reconstructed data from all reconstruction passes, analysis
objects, calibration and monitoring data. A fraction of the produced data will be kept
on short term storage, providing rapid access to data frequently processed and for I/O
dominated tasks. The media for permanent and transient storage will be decided by
the technology available. [10,11].
As we did for the CPU needs, Monte Carlo (where 1 event is around 300 Mb, based in
measurements made with the MC-Simulation software) is estimated for 1million
events. The Data Analysis is estimated as 10 Mb/event, but it depends on the software
used and can vary a lot within the development of each analysis software; this number
is just an estimation. Real data based in 3 Gb/day estimation, because of telemetry
data link limits from the ISS. Other data includes storage space that has to be reserved
for calibration data and monitoring. All the estimations are shown in Fig. 2.
The requirements for transient storage on fast access media depend on the computing
model, the balance of available distributed processing resources and on the network
bandwidth and occupancy ( And, Fig. 3). In the absence of Grid simulation tools, our
estimates on needed transient storage capacities are based on the requirement to store
on disks data that will be frequently accessed primarily through nonscheduled tasks.
For an early estimation, the transient storage should have enough space to store 30%
of the permanent storage for the MC-Simulation, the analysis tasks and the
141
I Encuentro de Investigadores en Infraestructuras Inteligentes
unscheduled tasks, plus additional storage for the software development test and user
unscheduled tasks.
Test software
Test software
Unscheduled Tasks
Unscheduled Tasks
Raw data
Raw data
MC-Simulation
MC-Simulation
Gb=
Gb=
90.000,0
90.000,0
79%
79%
Data analysis
Data analysis
Gb= 10.000,0
Gb= 10.000,0
9%
9%
Gb= 328,5 0%
Gb= 328,5 0%
Gb=10.000,0
Gb=10.000,0
9%
9%
Gb= 3.000,0
Gb= 3.000,0
3%
3%
Fig. 2 (Left) Requirements for the Permanent Storage. Estimated in Gb (Giga-bytes =
109 bytes). Yearly based estimation. And, Fig. 3 (Right) Requirements for the
Transient Storage. Estimated in Gb. Yearly based estimation
5 The Software Repository and Data Repository.
The software repository (SR) compounds all the actions and resources needed to keep
the software used in the collaboration organized, tested, and available to all the
resource centers and scientists participating in the collaboration. During the process of
developing software and preparing a release, various packages are made available to
the developer community for testing purposes. Special care should be taken to prevent
non-developers to download and use nightly builds, snapshots, release candidates, or
any other similar package. The only people who are supposed to know about such
packages are the people following the developers list (or searching its archives) and
thus aware of the conditions placed on the package. The general public should not use
such test packages. To assure the quality of the software The SR Certification Process
compounds the steps needed to convert a prerelease to an official stable release, to be
used by all the collaboration physics and engineers involved on the collaboration.
The data will be mirrored in at least in three sites, located in separated regions to
improve data access from the physics working on the grid. (Data links between
countries in the same continent are faster than inter-continental links). When fully set
up, the Data Repository (DR) will have 3 complete copies: American, Japanese, and
European. Containing each one a full set of: RAW DATA, MC data, and ground
analysis data. Additionally other resources center could have direct connection to the
nearest DR with read access only. The catalog is keep in one master site (any of the
three complete DR, to be defined) and mirrored to the others complete DRs. The
catalog and the complete DRs will be synchronized daily.
142
I Encuentro de Investigadores en Infraestructuras Inteligentes
References
1. Hess, Victor F. (1928). The Electrical Conductivity of the Atmosphere and Its Causes.
Constable and Company.
2. The JEM-EUSO Collaboration, http://jemeuso.riken.jp/en/index.html
3. ALICE Technical Design Report of the Computing, ALICE TDR 012, CERN-LHCC2005-018 (2005).
4. Roger Jones, The ATLAS Computing Model, international ICFA workshop on GRID
activities, Sinaia, Romania (2006).
5. J. Chudob et al., Simulation and reconstruction of cosmic ray showers for the Pierre Auger
Observatory on the EGEE grid, Journal of Physics: Conference Series 219 (2010) 072033
6. V. Choutko, Computing strategy of Alpha-Magnetic spectrometer experiment, Nucl. Instr.
Methods Phys. Res.,A502 (2003) 461-466.
7. M.C.Espirito Santo et al., The EUSO Science Operations and Data Centre, Proceedings of
28th ICRC Tsukuba (2003) 1089.
S.Bottai et al., Simulation and Data Analysis for EUSO, Proceedings of 28th ICRC
Tsukuba (2003) 943.
9. Curnow, H.J. and Wichman, B.A. "A Synthetic Benchmark" Computer Journal, Volume
19, Issue 1, February 1976., p. 43-49.
10. Alice Computing Model, CERN-LHCC-2004-028/G-086 (2005).
11. The ATLAS Computing Model, ATLAS TDR--017, CERN-LHCC-2005-022.
8.
143
I Encuentro de Investigadores en Infraestructuras Inteligentes
144
I Encuentro de Investigadores en Infraestructuras Inteligentes
La Inteligencia de Negocio en Ambientes Pervasivos:
Infraestructuras Inteligentes basadas en la Gestión de
Acontecimientos
Eladio Domínguez, Ángel R. Francés
Departamento de Informática e Ingeniería de Sistemas, Universidad de Zaragoza
c/ Pedro Cerbuna 12, 50009 Zaragoza
{noesis,afrances}@unizar.es
Resumen. En el ámbito de los espacios pervasivos, se presenta un tipo de
tecnología para la gestión inteligente de los servicios basada en dos elementos:
la gestión de acontecimientos, en sustitución de la tradicional gestión de datos,
y la gestión colaborativa en un sistema de pequeñas entidades, los spimes, cada
una con aspectos inteligentes. La inteligencia del sistema se deriva de la
sinergia de la colaboración entre dichas pequeñas entidades.
Palabras clave: Infraestructuras inteligentes, Inteligencia de Negocio, Sistemas
de Gestión de Acontecimientos, Bases de Datos Longitudinales.
1 Punto de vista: infraestructuras, espacios y ambientes
Por infraestructura entendemos un conjunto de medios, tanto físicos como de
organización, que constituyen el soporte para el funcionamiento de la sociedad en un
área específica –ciudades, hospitales, autopistas, telecomunicaciones, aeropuertos…–
y cuya principal función es la prestación de servicios a los ciudadanos.
Bajo el punto de vista tradicional, una infraestructura determina un espacio que
físicamente está fijado por los medios físicos propios de la infraestructura, espacio
que, sin el uso de las tecnologías avanzadas, coincide con el espacio de interacción
con el ciudadano.
Vamos a mostrar con brevedad cómo los avances de las tecnologías de la
información y comunicación están cambiando el concepto de infraestructura.
El cambio más significativo es el que se produce en el espacio infraestructural, que
es el espacio de interacción con el ciudadano, de cuyo alcance depende la capacidad,
competitividad y productividad del servicio. Sin embargo, la satisfacción de los
usuarios del servicio está más determinada por lo que llamamos el ambiente
infraestructural, que refiere a las circunstancias sociales y económicas de los
ciudadanos.
Consideramos que, en el diseño, construcción y adaptación de las infraestructuras,
es necesario tener en cuenta las tres dimensiones: infraestructura, espacio
infraestructural y ambiente infraestructural.
145
I Encuentro de Investigadores en Infraestructuras Inteligentes
1.1 Sobre los tipos de infraestructuras
Las infraestructuras se pueden distinguir en función de los espacios y ambientes,
teniendo en cuenta el uso de las TIC.
Así podemos considerar infraestructuras ubicuas cuando el espacio infraestructural
se establece en relación a un ambiente ubicuo –el usuario puede acceder al servicio
desde cualquier punto físico con el único requerimiento de que disponga de un punto
de acceso a la Web a través de un ordenador.
El uso masivo de los móviles, además de potenciar la ubicuidad del sistema, puede
proporcionar otro tipo de infraestructuras, las que podemos llamar infraestructuras
pervasivas que son aquellas que modifican el espacio pervasivo en concordancia con
los ambientes pervasivos construyendo servicios avanzados en los que se potencian
las características sensoriales del entorno.
Pero el futuro inmediato en el que ya estamos sumergidos es el de los espacios y
ambientes en el mundo llamado del Internet de las Cosas, mundo en el que las
capacidades sensoriales se encuentran en los objetos que forman parte del espacio que
rodea al ciudadano. Las cosas tienen capacidad de interacción entre sí y con el
ciudadano, el intercambio de información se realiza a través de una red que
interconecta los objetos del entorno.
La tendencia actual va más allá de estos espacios pervasivos avanzados. Se
empieza a exigir a las cosas capacidades de identificación, localización en tiempo y
espacio, autenticación a través de su historia, y de trabajo colaborativo en el
desarrollo de un servicio.
Por sistema de spimes consideramos un sistema de cosas que tienen las
capacidades mencionadas anteriormente. El uso de ese tipo de sistemas como parte de
del espacio infraestructural nos conduce a lo que denominamos infraestructuras,
espacios y ambientes spimes.
2 Sistemas de Gestión de Acontecimientos
Un acontecimiento es la ejecución de un protocolo sobre un estado de un objeto. Un
Sistema de Gestión de Acontecimientos es un sistema que recoge los acontecimientos
a lo largo del tiempo y proporciona los medios para su almacenamiento y para la
explotación del conocimiento derivado de los mismos.
Las capacidades exigibles a este tipo de sistemas son la persistencia en relación al
cambio, la reproducibilidad dinámica de su situación en cualquier instante que se
determine, la adaptabilidad ante el cambio y la disponibilidad de medios para la
generación de conocimiento y mejora de los procesos.
La persistencia tiene relación con la convivencia, por ejemplo, de las sucesivas
modificaciones de los protocolos de un mismo proceso.
La reproducibilidad dinámica, por su parte, tiene que ver con la presentación
dinámica del estado del sistema en cualquier instante de su historia. El sistema va
construyendo de forma transparente su historia a través del registro de
acontecimientos, historia que puede ser presentada dinámicamente al usuario y que
claramente determina al sistema como individuo, distinguible de cualquier otro.
146
I Encuentro de Investigadores en Infraestructuras Inteligentes
En relación a la extracción de conocimiento, las propias relaciones entre
acontecimientos, permiten disponer dinámicamente de objetos de conocimiento
longitudinal. Con técnicas usuales de Inteligencia de Negocio (Business Intelligence)
aplicadas a acontecimientos, en vez de a datos, se potencia la inteligencia del sistema.
2.1 Situación actual de la tecnología
Actualmente existen en explotación varios sistemas de gestión de acontecimientos
entre los que queremos destacar el que da soporte al proyecto AWHS –Aragon
Workers Health Study– financiado por el Gobierno de Aragón, y el Instituto de Salud
Carlos III. Este sistema, que está en explotación desde hace dos años, se destaca tanto
por la complejidad de sus datos –sociodemográficos, analíticos, clínicos, imágenes
médicas, genómicos…- y de su mapa de procesos como por la complejidad de su
cadena de valor –participan cinco entidades dispersas geográficamente–.
También destacamos la construcción que se ha iniciado para dar soporte al
Biobanco de Aragón, por tratarse de la implantación de un sistema federado de
colecciones de muestras biológicas con un modelo de gobierno común.
2.2 Los antecedentes
El Grupo de Investigación Nóesis, cuyo investigador principal es E. Domínguez,
primer firmante de este artículo, está investigando desde hace más de cinco años
sobre técnicas y metodologías que faciliten la evolución de los sistemas y su
adaptabilidad ante los cambios ([6], [11], [9]), algunos de cuyos resultados han sido
objeto de publicación especializada, entre las que destacamos las más recientes ([1],
[2], [3], [4], [5]).
En una primera fase de investigación y desarrollo industrial, alguno de los
resultados de la investigación realizada se ha llevado al campo de la aplicación,
desarrollando técnicas y metodologías innovadoras que han conducido a prototipos en
fase de pre-explotación ([7], [8], [10]).
Estas técnicas y metodologías se han utilizado para la construcción de servicios
con valor añadido en diferentes ámbitos –gestión de biobancos, de parkings, del
desempeño, de proyectos, gestión documental, académica…– en los que se han ido
introduciendo, de forma evolutiva, aspectos de lo que hemos denominado sistemas
spimes.
Hay que destacar que entre esos aspectos la característica de historia autenticable
es parte fundamental de una patente [13], recientemente aceptada, para la
construcción de alícuotas con esa capacidad de comportamiento inteligente.
2.3 El futuro inmediato
En el marco del proyecto THOFU [12] se está trabajando en la construcción de un
modelo de seguridad para los hoteles del futuro en un espacio pervasivo. El objetivo
es que dicho modelo esté basado en un sistema de spimes, cada uno de ellos con
147
I Encuentro de Investigadores en Infraestructuras Inteligentes
pequeñas responsabilidades en relación a la seguridad, que colaborando en red
proporcionen un sistema de seguridad que tenga presente el ambiente del futuro
Internet de las Cosas.
Referencias
1. Domínguez, E., Lloret, J., Rubio, A.L., Zapata, M.A.: MEDA: A Database Evolution
Architecture with traceability. Data and Knowledge Engineering, pp. 419--441. (2008), doi:
10.1016/j.datak.2007.12.001
2. Porres, I., Domínguez, E., Pérez, B., Rodríguez, A., Zapata, M.A.: A Model Driven
Approach to Automate the Implementation of Clinical Guidelines in Decision Support
Systems. In: Proccedings of the 15th Annual IEEE International Conference and Workshops
on the Engineering of Computer Based Systems (ECBS), pp. 210-218. (2008)
3. Domínguez, E., Pérez, B., Zapata, M.A.: Tracing the Application of Clinical Guidlines. In:
International Workshop On Health Data Management (IWHDM’08) in conjunction with the
10th Asia Pacific Web Conference, pp. 122-133. (2008)
4. Domínguez, E., Lloret, J., Rubio, A.L., Zapata, M.A.: Model Driven, View-Based Evolution
of Relational Databases. In: S.S. Bhowmick et al. (eds.) Database and Expert Systems
Applications 19th International Conference, DEXA 2008; LNCS, vol. 5181, pp. 822-836.
Springer, Heidelberg (2008)
5. Foster, I., Kesselman, C., Nick, J., Tuecke, S.: The Physiology of the Grid: an Open Grid
Services Architecture for Distributed Systems Integration. Technical report, Global Grid
Forum (2002)
6. Evolución y cambio en la gestión de datos: mantenimiento de la consistencia entre
documentos XML, esquemas XML y diagramas de clases de UML. Proyecto financiado por
la Dirección General de Investigación, 2005-2008, TIN2005-05534
7. SPOCS – Software de Comunicación de Optimización de Procesos de Servicio. Proyecto
subvencionado por el Ministerio de Industria, Turismo y Comercio, 2007-2008, FIT-340001-2007-4. Entidades participantes: Informática Gesfor S. A., Universidad de Zaragoza,
Infozara S. L.
8. LISBioBank. Proyecto subvencionado por el Ministerio de Industria, Turismo y Comercio,
2008-2009, FIT-020-302-2008-8. Entidades participantes: Idea Informática S. A.,
Universidad de Zaragoza, Infozara S. L.
9. LIS: Sistema de Información Longitudinal. Proyecto financiado por el Departamento de
Ciencia y Tecnología y Universidad, 2008-2010, PI108/08
10.QualityReadyPortal. Proyecto subvencionado por el Ministerio de Industria, Turismo y
Comercio, 2009-2010, FIT-340-001-2007-4. Entidades participantes: Informática Gesfor S.
A., Universidad de Zaragoza, Infozara S. L.
11.Gestión de la evolución de protocolos en un contexto de desarrollo dirigido por modelos.
Proyecto financiado por el Ministerio de Ciencia e Innovación, 2010-2012, TIN2009-13584
12.THOFU: Tecnologías del Hotel del Futuro. Proyecto subvencionado por el CDTI en el
subprograma CENIT, 2010-2013, CEN-20101019. Empresa líder: Informática Gesfor S. A.
Participantes: Universidad de Zaragoza como OPI, otros 14 organismos de investigación y
16 empresas.
13.Sistema inteligente de almacenaje de muestras, patente 200802910 (concedida con fecha
13/01/2011). Domínguez, E. y al.
148
I Encuentro de Investigadores en Infraestructuras Inteligentes
Aportaciones para el postproceso de datos ante el envío
de parámetros muestreados en momentos críticos de
vehículos aéreos no tripulados
Manuel Sánchez Rubio
Dpto Ciencias de la Computación. Universidad de Alcalá, Crta. Barcelona Km. 33.6
28871 Alcalá de Henares, España
[email protected]
Abstract. En el presente documento se pretende investigar distintos escenarios
que nos permitan acceder a un modelo, que aporte un mayor conocimiento de lo
ocurrido en determinados parámetros que miden magnitudes físicas
relacionadas con el comportamiento de una aeronave no tripulada. Basados en
distintos modelos teóricos de compresión de datos, se pretende enviar mas
información de los parámetros mas dependientes de los momentos críticos de la
aeronave, como despegue y aterrizaje.
Keywords: compresión de datos, aeronave no tripulada, magnitudes físicas,
sensores.
1 Problema a investigar y su importancia
La característica principal de un vehículo aéreo no tripulado (UAV, Unmmaned Air
Vehicle), es que no lleva un piloto humano a bordo, siendo de gran interés, para
misiones militares y civiles. La aparición de nuevos sistemas de captación e
interpretación de datos e imágenes, hace que cada vez aumente el número de tareas
que pueden ser realizadas por esta tipo de vehículos. Los aviones están equipados con
una cámara (visible e infrarrojos), recibiendo las imágenes en una Estación en Tierra
o registrando las mismas a bordo.
Un sistema de UAV’s está compuesto, además de uno o más vehículos aéreos, de un
sistema de tierra y de unos medios de enlace de datos necesarios para operar el
vehículo. El vehículo aéreo estará diseñado según las actuaciones que se requieran
para el tipo de misiones que vaya a realizar (combate, observación, blanco aéreo,
etc.). El postproceso de los datos enviados a tierra, permite hacer disponibles los datos
una vez procesados para el análisis detallado de las maniobras y los equipos
ensayados. Serán la base de argumentación de las conclusiones y recomendaciones
presentadas por el Equipo de Ensayos en Vuelo ante el cliente o promotor de los
ensayos.
149
I Encuentro de Investigadores en Infraestructuras Inteligentes
Actualmente, la frecuencia de muestreo (número de veces por segundo que se
adquiere una muestra de la variable física medida), se establece en diez, y este
número se hace suficiente, excepto, en determinados instantes de tiempo, donde la
variación de los valores que sufre la magnitud física medida es muy fuerte,
haciéndose necesario medir esos valores con una frecuencia mucho mayor, para
realizar un análisis postproceso mas exacto de las fluctuaciones desarrolladas en los
sensores de la aeronave mas críticos. Este proceso se puede descomponer en los
siguientes objetivos operativos:
1.- Basado en el conocimiento previo, definir el modelo actual, y analizar las
condiciones sobre las que se sustenta el estudio que se va a desarrollar; cuantía de
parámetros, frecuencias de envío, limitación en las comunicaciones,
almacenamiento y presentación de datos …etc.
2.- Identificar las variables afectadas, estableciendo unas propuestas de
agrupación basadas en criterios objetivos. También identificar los momentos
críticos para los cuales se desea realizar la exhaustividad del análisis a realizar.
3.- Definir y aunar coherentemente unas estrategias que definan unos
mecanismos óptimos de acercamiento al objetivo deseado; obtener mas
información de determinados parámetros en momentos críticos.
4.- Integrar todos los componentes del sistema desarrollado y realizar para las
distintas propuestas, un análisis detallado que nos permita acercarnos a las
conclusiones finales.
2 Base teórica e investigación anterior
En el apartado anterior, se cita la identificación de momentos críticos, como uno de
los objetivos a realizar. Estos momentos, deben ser seleccionados dentro de las
distintas fases de vuelo en las que se ve inmersa la aeronave: prevuelo (Fig. 1); cuyo
objetivo es inicializar el Sistema de Navegación, Guiado y Control de la estación de
vuelo (NGFCS), carreteo; donde el NGFCS está iniciado y el piloto podrá tomar
control de la aeronave, carrera de despegue; con inicio de despegue bien de forma
autónoma o bien por el piloto de RC, despegue (Fig. 2); donde el avión alcanza cierta
altura, vuelo; cuando el UAV está volando en cualquiera de sus modos y fin de vuelo;
fase en la que se entiende que ha terminado la misión y el avión se encuentra en tierra.
(De la Parra et al., 2002).
De la misma forma se describe en el documento anteriormente citado, los parámetros
que envía el sistema de Navegación, Guiado y Control por radiomódem en formato de
coma flotante ANSI/IEEE Std 754(short) de 32 bit (4-byte).
También en estudios previos (Herrera et al., 2010), se determina que en el software de
adquisición digital por puerto serie, el tipo de comunicación empleada, está basada en
la generación de interrupciones por la UART sobre el microprocesador, cada vez que
se llena el buffer de entrada o salida del puerto.
150
I Encuentro de Investigadores en Infraestructuras Inteligentes
Según el problema expuesto en el apartado anterior se requiere una investigación,
análisis y desarrollo adicional que permita ampliar el conocimiento del envío de datos
basados en patrones. Las bases teóricas para la presente propuesta residen en los
siguientes campos o áreas:
-
La transmisión de información a través de radiomódem, hace
necesario el estudio de estándares de intercambio serie de
datos binarios entre equipos como RS-232 (EIA RS-232C,
1969), (V.24, UIT-T, 2000).
-
Mecanismos de técnicas de compresión de datos, como el
grupo de expertos de imágenes en movimiento MPEG-2 (ISO
13818-1. 2007)) y en una fase mas avanzada en MPEG-4
(ISO/IEC 14496-13. 2008).
-
Normas relativas a mejorar la compatibilidad y calidad del
sistema de telemedida (IRIG 119, 2007), y características del
estándar de comunicación (IRIG 106, 2007), deberán ser
tomadas en consideración como estudio previo.
Fig. 1 Fase de prevuelo
Fig. 2 Fase de despegue
151
I Encuentro de Investigadores en Infraestructuras Inteligentes
3 Metodología a seguir
El primer lugar, validar un marco para el desarrollo de las herramientas de
aproximación. Elaborar un diseño lo mas aproximado posible a las condiciones reales
existentes, tanto en el envío de datos a través de radiomódem, como la disposición de
la información recibida en la parte transmisora de la información, y la visualización y
almacenamiento de la información en destino. El resto de objetivos operativos serán
validados mediante la construcción de distintos prototipos que permitan una
aproximación a la recepción de una información más detallada sobre determinados
parámetros, y aporten más conocimiento a lo ocurrido en la aeronave. Estos
prototipos deben exhibir niveles de complejidad creciente y estarán basados en una
conjunción de las bases teóricas expresadas en el punto anterior de forma que aporten
una información mas detallada en los resultados obtenidos.
4 Contribución al conocimiento y avance de los posibles resultados
La principal aportación al conocimiento radica en la definición y diseño de nuevos
métodos, basados en los distintos mecanismos y técnicas existentes, que permitan
realizar una aproximación real a lo ocurrido en el comportamiento de una aeronave no
tripulada en determinados momentos críticos donde se hace necesario adquirir mas
información de determinados sensores que detectan grandes variaciones en unidades
cortas de tiempo. El conocimiento de estas grandes variaciones sufridas en cortos
espacios de tiempo, permitirán conocer más en profundidad el comportamiento de la
aeronave, y por lo tanto, mejorar el sistema de control de vuelo que permite
comandarla.
References
1. EIA, (1969) EIA Standard RS-232-C Interface Between Data Terminal Equipment and Data
Communication Equipment Employing Serial Data Interchange
2. De la Parra, S., Ángel, Fco. J. (2002) interfaz del NGFCS con la GCS.
SIV/SPE/51CO/028/INTA/02
3. Herrera, A., De la Parra, S. (2010) Descripción del hardware del ordenador embarcado
SIV/TNO/51CO/018/INTA
4. IRIG 106 (2007) Telemetry Standard
5. IRIG 119 (2007) Telemetry Applications Handbook
6. ISO 13818-1, (2007) Information technology -- Generic coding of moving pictures and
associated audio information: Systems
7. ISO 14496-13, (2004) Information technology -- Coding of audio-visual objects -8. V.24, (2000) List of definitions for interchange circuits between data termina equipment
(DTE) and data circuit-terminating equipment (DCE)
152
I Encuentro de Investigadores en Infraestructuras Inteligentes
Técnicas de Localización en Plataforma Aeroportuaria
basadas en Teoría del Trazado de Rayos
A. del Corte Valiente (1)
(1)
O. Gutiérrez Blanco (2)
J.M. Gómez Pulido (2)
[email protected], [email protected], [email protected]
Dpto. de Automática, Universidad de Alcalá, 28871, Alcalá de Henares, Madrid, España.
(2)
Dpto. de Ciencias de la Computación, Universidad de Alcalá, 28871,
Alcalá de Henares, Madrid, España.
Resumen − La seguridad en plataforma aeroportuaria tiene por objetivo
proporcionar una operación y servicios eficientes libres de accidentes a los
usuarios. Para ello se han desarrollado diferentes tecnologías. El radar primario
se utiliza durante la fase de aproximación del vuelo. Cámaras, radar de
superficie y sistemas de triangulación se emplean para vigilancia en superficie.
El objetivo final de estos sistemas es mejorar la eficiencia y la seguridad de las
operaciones en el aeropuerto. Sin embargo, las áreas en el aeropuerto donde se
suministran servicios a las aeronaves presentan un alto riesgo de accidentes
debido a la gran cantidad de vehículos, personas y mercancías que se involucran
en la actividad handling. En este trabajo presentamos diferentes algoritmos que
mejoran la precisión de la localización de vehículos y mercancías en aquellas
zonas del aeropuerto donde la cobertura GPS y los sistemas radar no
proporcionan la resolución adecuada.
1 Introduction
En este paper se presentan técnicas novedosas que permiten incrementar la seguridad
operacional en el aeropuerto en aquellas áreas donde la cobertura de los satélites GPS
o la resolución de los sistemas radar resultan insuficientes. El desarrollo de nuevos
estándares de acceso radio como WiMax, UWB y 802.11n posibilita la exploración de
nuevas técnicas que permitan mejorar la precisión de la localización obtenida sobre
dispositivos wireless.
En este trabajo se presenta el problema de la localización basada en las
señales disponibles en los dispositivos wireless [1]. El proceso de localización se
realiza mediante la técnica fingerprinting [2,3] basada en la información de las señales
procedente de los distintos efectos del trazado de rayos inherentes en la
comunicación. En comparación con otras técnicas como ángulo de llegada (AoA) o
tiempo de llegada (ToA) que presentan importantes desafíos debido a los efectos
multicamino y a la falta de visión directa (N-LoS) entre fuente y receptor [1], la
técnica fingerprinting es relativamente fácil de implementar. En la mayoría de los
sistemas de localización implementados sobre redes WiFi se utilizan la distancia
Euclídea como métrica y los valores de nivel de potencias recibida (RSSI) como
153
I Encuentro de Investigadores en Infraestructuras Inteligentes
huella. Proponemos unos algoritmos novedosos basados en la técnica fingerprinting
que utilizan el retardo relativo entre los diferentes rayos debidos a los efectos del
trazado de rayos como huella en lugar del valor RSSI. Con esta técnica se obtiene una
mayor precisión [7,8] en la localización que puede ayudar a mejorar la seguridad
operacional en áreas críticas del aeropuerto.
2
TECNOLOGIAS
AEROPUERTOS
DE
VIGILANCIA
EN
LOS
Actualmente hay tres tipos de tecnología radar (Fig. 1) involucradas en el control
de tráfico aéreo (ATC). El radar básico es el radar primario de vigilancia (PSR) que
constituye un sistema pasivo dado que indica la presencia de la aeronave pero sin
identificación de la misma. El radar secundario de vigilancia (SSR) constituye un
sistema colaborativo puesto que la detección del objeto no depende únicamente del
tamaño del mismo. Las aeronaves equipadas con un transpondedor son capaces de
responder ante interrogaciones procedentes de equipos en tierra para identificar la
aeronave. Finalmente, el radar de movimiento en superficie (SMR) es utilizado para
proporcionar identificación de la aeronave en condiciones de baja visibilidad.
Figura.1: Tecnologías radar: PSR (izda.), SSR (centro), y SMR (dcha.).
Recientemente, los aeropuertos han desarrollado otras fuentes de información de
vigilancia basadas en multilateración (MALT) y vigilancia dependiente automática
(A-DSB). La MLAT (Fig. 2), también conocida como posicionamiento hiperbólico,
es una técnica que permite localizar aeronaves y vehículos calculando la diferencia de
tiempos de llegada (TDoA) de una señal emitida por la fuente hacia tres o más
estaciones receptoras ubicadas en tierra. Una aeronave equipada con ADS-B (Fig. 3)
utiliza un sistema convencional de posicionamiento global (GNSS) para obtener la
posición del blanco.
Figura 2: Multilateración.
154
I Encuentro de Investigadores en Infraestructuras Inteligentes
Figura 3: ADS-B.
3
PROBLEMAS EN PLATAFORMA
ESTACIONAMIENTO DE AERONAVES
Y
ZONAS
DE
Cuando la aeronave estaciona en el stand, comienzan una serie de operaciones
destinadas a garantizar la integridad y la seguridad del siguiente vuelo. La aeronave
es cargada de combustible, pasajeros, equipajes y es asistida con otras operaciones
de handling, que presentan un alto riesgo de accidentes debido a la gran cantidad de
vehículos, personas y mercancías involucradas (Fig. 4).
Debido a la falta de cobertura de los satélites GPS y de los sistemas radar, la
localización de aeronaves y vehículos en las zonas de estacionamiento de las
aeronaves está limitada y no permite obtener su posición exacta. Proponemos por
tanto reforzar la cobertura WiFi de la infraestructura aeroportuaria disponible en las
pre-pasarelas de estacionamientos mediante la instalación de nuevos puntos de
acceso para obtener una localización de precisión mediante las técnicas descritas en
la siguiente sección.
Figura 4: Actividad handling.
155
I Encuentro de Investigadores en Infraestructuras Inteligentes
4
ALGORITMOS DE LOCALIZACION BASADOS EN
TECNICAS FINGERPRINTING
4.1 Herramienta FASANT
Como herramienta de simulación se utiliza FASANT [3] que permite realizar un
análisis de propagación 3D en interiores en base a técnicas avanzadas de trazado de
rayos implementadas mediante métodos determinísticos [4,5]. FASANT se basa en
la óptica geométrica y la teoría uniforme de la difracción para obtener el campo
eléctrico en cada punto de interés como contribución de los diferentes efectos
multitrayecto: rayo directo, reflejado, difractado y cualquier combinación de los
anteriores.
4.2 Técnica Fingerprinting
La técnica fingerprinting [1] es utilizada en el algoritmo de localización. En su
primera fase se obtiene el radio-map del entorno realizando un análisis de los
retardos relativos entre las distintas señales que, debido al efecto multitrayecto, son
detectadas en las huellas que forman la rejilla del mallado. En una segunda fase la
técnica ubica aleatoriamente un número significativo de estaciones móviles dentro
del área de cobertura del radio-map para obtener las muestras de los retardos
relativos entre las señales detectadas procedentes de los distintos AP’s. La siguiente
figura representa los retardos relativos obtenidos entre las diferentes señales
detectadas en una huella cualquiera del mallado frente a su contribución al campo
total. Las coordenadas X e Y asociadas con la huella que presenta la menor
distancia Euclídea corresponden con la posición objetivo del dispositivo móvil. Los
vectores con las muestras de los niveles de potencia así como los vectores con los
retardos relativos están disponibles en cada punto de acceso y en cada dispositivo
móvil. En el caso de los niveles de potencia (1), las muestras se aplican a cada uno
de los N puntos de acceso. Sin embargo, el número de efectos del trazado de rayos
(N) es tenido en cuenta en el caso de retardos relativos (2).
Figura 5: Retardos relativos entre rayos.
∑ [( Pm − Pf )
N
Dp(x, y ) =
Dr ( x, y ) =
i
i =1
i
i =1

]
(1)
∑ ∑ [( Rm
N
2
E
ij
 j =1
156
]

− Rfij ) 2 

(2)
I Encuentro de Investigadores en Infraestructuras Inteligentes
4.3 Métrica de distancia
La métrica utilizada en la técnica fingerprinting puede jugar un papel fundamental
en los resultados obtenidos. Por esta razón se comparan tres métricas con el objetivo
de analizar su impacto en el error medio cometido en la localización. Las métricas
analizadas son la distancia Euclídea (3), Manhattan (4) y Mahalanobis (5).
D E ( x, y ) =
N
∑ (x
i =1
i
− yi ) 2
(3)
N
DM (x, y) = ∑ xi − yi
i=1
(4)
DMah( x, y) = ( x − y)' Cov( x)−1 ( x − y)
(5)
4.4 Interpolación
Finalmente se realiza una interpolación entre las huellas que poseen la menor
distancia con el objetivo de incrementar la precisión en la localización. La
estimación de la coordenada del punto donde se considera que está ubicado el
móvil, DP, se determina por medio de la expresión (6) donde el término Nf es el
número de huella y Xj y FP(x, y) son respectivamente, el valor de la distancia y la
coordenada correspondiente a la huella j.
Figura 6: Algoritmo sin interpolación (izda.) y con interpolación (dcha.).
∑ [FP(x, y ) X ]
Nf
DP( x, y ) =
j
j =1
∑ (1 X )
Nf
j =1
157
j
(6)
I Encuentro de Investigadores en Infraestructuras Inteligentes
5
SIMULACION EN EL AEROPUERTO DE VIENA
El escenario analizado corresponde con una sección del aeropuerto internacional de
Viena (Fig. 7) de 75 x 180 metros. El numero de huellas ha sido de 9089 para una
resolución del mallado (distancia entre huellas) de 1.2 metros (Fig. 8). Para
determinar la precisión del algoritmo se han ubicado 99 móviles en posiciones
aleatorias. Cada una de las seis antenas utilizadas en la simulación se ha ubicado
encima de la pre-pasarela de las aeronaves con el objetivo de obtener la máxima
cobertura.
6
RESULTADOS
Los resultados de la simulación descrita en la sección 5 se presentan aquí. Tres
métricas de distancia y dos métodos de detección en el algoritmo fingerprinting se
han comparado (Tabla 1). La utilización de la distancia Mahalanobis combinada con
el método de detección basado en retardos relativos entre rayos presenta los mejores
resultados. Finalmente, el algoritmo de interpolación consigue mejorar la precisión
de la localización (Tabla 2).
Figura 7: Aeropuerto de Viena – Área simulada.
Figura 8: Huellas y móviles en el área simulada.
Métrica de
distancia
Euclídea
RSSI
3.9602
158
Retardo
relativo
0.5008
I Encuentro de Investigadores en Infraestructuras Inteligentes
Manhattan
Mahalanob
is
[m]
3.7290
[m]
6.0278
[m]
[m]
0.4756
[m]
0.4256
[m]
Tabla 1: Métodos de detección – Error medio
Distancia
Mahalanobis
Sin interpolación
Con interpolación
Retardo
relativo
0.4256 [m]
0.4043 [m]
Tabla 2: Algoritmo de interpolación – Error medio
7
CONCLUSIONES
Nuevos algoritmos de localización basados en técnicas fingerprinting del trazado
de rayos en redes WLAN se han presentado. Las diferentes técnicas introducidas
muestran que es posible obtener mayor precisión en la localización utilizando
retardos relativos entre los rayos debido al efecto multicamino, permitiendo
aumentar la seguridad en entornos críticos.
Agradecimientos
Trabajo financiado por la Comunidad de Madrid, proyecto S2009/TIC-1485.
Agradecemos a la Agencia Espacial Europea por proporcionar el plano del aeropuerto de
Viena.
Referencias
[1] Bahl P. et al, “Enhancements of the Radar User Location and Tracking System”,
Microsoft Research Technology, 2000.
[2]
K. Kaemarungsi, P. Krishnamurthy, “Properties of Indoor Received Signal Strength
for WLAN Location Fingerprinting”, Proc. First Annual Intl. Conf. on Mobile and
Ubiquitous Systems, pp. 14-23, 2004.
[3]
F. Sáez de Adana et al. “Propagation model based on ray tracing for the design of
personal communication systems in indoor environments”, IEEE Trans. on Vehicular
Technology, Vol. 49, pp. 2105-2112, 2000.
[4]
M.F. Cátedra, J. Pérez-Arriaga, “Cell Planning for wireless communications”, Artech
House Publishers, Boston, 1999.
[5]
K. Kaemarungsi, “Distribution of WLAN Received Signal Strength Indication for
Indoor Location Determination”, Proc. First Intl. Symposium on Wireless Pervasive
Computing, nº pp. 6, CD-ROM, 2006.
[6]
A. del Corte, J.M. Gómez, O. Gutiérrez, M.F. Cátedra-Pérez. “Efficient Techniques
for Indoor Localization based on WLAN Networks”. Second Intl. Workshop on UserCentric Technologies and Applications. Salamanca (Spain). pp. 5-15. 2008.
[7]
A. del Corte, J.M. Gómez, O. Gutiérrez. “High Precision for Indoor Localization
Applications based on Relative Delay and the Fingerprinting Technique”. Third Intl.
Workshop on User-Centric Technologies and Applications. Salamanca (Spain). pp. 25-32,
2009.
[8]
A. del Corte, J.M. Gómez, O. Gutiérrez. “Efficient Techniques for Improving Indoor
Localization Precision on WLAN Networks Applications”. IEEE Intl. Symposium on
Antennas & Prop. South Caroline (USA), 2009.
159

Documentos relacionados