Actas de las XVII Jornadas de ARCA 2015
Transcripción
Actas de las XVII Jornadas de ARCA 2015
JARCA 2015 Actas de las XVII Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica, Inteligencia Ambiental y Ciudades Inteligentes Vinaros 23 al 27 de Junio de 2015 Juan Antonio Ortega Ramírez Mario Muñoz Organero XVII Jornadas de ARCA XVII Jornadas de ARCA Actas de las XVII Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica, Inteligencia Ambiental y Ciudades Inteligentes Proceedings of the XVII ARCA Days Qualitative Systems and its Applications in Diagnose, Robotics, Ambient Intelligence and Smart Cities Editado por / Edited by Juan Antonio Ortega Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla, España y / and Mario Muñoz Organero Departamento de Ingeniería Telemática Universidad Carlos III de Madrid, España I XVII Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica, Inteligencia Ambiental y Ciudades Inteligentes / Juan Antonio Ortega Ramírez , Mario Muñoz Organero ISBN: 978-84-608-5599-6 I. II. Juan Antonio Ortega Ramírez Mario Muñoz Organero Edita: © Derechos de autor De los textos: los autores correspondientes De las ilustraciones: los autores correspondientes De esta edición: Juan Antonio Ortega Ramírez Junio 2015. ISBN: 978-84-608-5599-6 No está permitida la reproducción total o parcial de este libro, ni su transmisión de ninguna forma o por cualquier medio, ya sea electrónico, por registro u otros métodos sin el permiso previo y por escrito de los titulares del copyright. II XVII Jornadas de ARCA Director de las Jornadas Juan Antonio Ortega Ramírez, Universidad de Sevilla Comité Organizador Mario Muñoz Organero, Universidad Carlos III de Madrid Víctor Córcoba Magaña, Universidad Carlos III de Madrid Jorge Yago Fernández Rodríguez, Universidad de Sevilla Álvaro Arcos García, Universidad de Sevilla Comité de programa Núria Agell, Universidad Ramon Llull Cecilio Angulo, Universitat Politécnica de Catalunya Joaquim Armengol, Universitat de Girona Andreu Català, Universitat Politécnica de Catalunya Zoe Falomir, Universität Bremen Luis González, Universidad de Sevilla Natividad Martínez, Reutlingen University Quim Meléndez, Universitat de Girona Lledó Museros, Universitat Jaume I Juan Antonio Ortega, Universidad de Sevilla Francisco Ruiz, Universitat Politécnica de Catalunya Ismael Sanz, Universitat Jaume I Ralf Seepold, Universität Konstanz Miguel Toro, Universidad de Sevilla Jesús Torres, Universidad de Sevilla Josep Vehí, Universitat de Girona Francisco Velasco, Universidad de Sevilla III XVII Jornadas de ARCA Preface This volume contains the papers presented at JARCA 2015: XVII Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica, Inteligencia Ambiental y Smart Cities that took place from 22 to 28 June 2015 in Vinaros. There were 20 accepted papers. Each submission was reviewed by program committee members. This proceedings are partially supported by the projects of the Spanish Ministry of Economy and Competitiveness HERMES (TIN2013-46801-C4-1-R , TIN2013-46801C4-2-R) and Simon (TIC8052) of the Andalusian Regional Ministry of Economy, Innovation and Science and with the cooperation of Fidetia (Fundación para la Investigación y el Desarrollo de las Tecnologías de la Información en Andalucía). Easychair was used to manage paper submissions, reviewing and generating the proceedings. Viraros, junio de 2015 Juan Antonio Ortega Ramírez Mario Muñoz Organero Ediciones Anteriores Sevilla 1998 Sevilla 2000 Valladolid 2001 Vilanova i la Geltrú 2002 Lanzarote 2003 Menorca 2004 Benalmádena 2005 Peñíscola y Castellón de la Plana 2006 Girona 2007 Tenerife 2008 Granada 2009 Mallorca 2010 Huelva 2011 Salou 2012 Murcia 2013 Cádiz 2014 IV XVII Jornadas de ARCA Index Cognitive-AmI project: Widespreading results . . .................................................................1 Zoe Falomir A pilot study to test the cognitive performance of a qualitative shape description scheme for juxtaposing shapes . . ..................................................................................................6 Zoe Falomir Lledó Museros, Ismael Sanz Luis González-Abril Un big picture sobre las tecnologías de computación y almacenamiento distribuidos . .........................................................................................................................................................11 Damián Fernández Cerero, Alejandro Fernández-Montes, Juan Antonio Ortega A multidimensional expertise recommender tool . . . . . ...................................................14 Germán Sánchez-Hernández, Jennifer Nguyen, Núria Agell Tracking infrastructure for large crowd movement . . . . . ...............................................18 Andreas Eberlei , Manuel Herzberg , Jonas Kaltenbach , Dominik Ringgeler , Patrick Datko , Wilhelm D. Scherz , Tatjana Thimm and Ralf Seepold ENGAGE: an Evidence-based Model of Engagement for Dementia . . ........................22 Giulia Perugia, M.D.; Marta Díaz Boladeras; Andreu Català Mallofré Plataforma BREATHE de apoyo al cuidador informal: ¿Estamos preparados para el Gran Hermano? . . . . ......................................................................................................................................26 Ángel Martínez, Juan Pablo Lázaro, Isabel Martí Filtering process and data exchange architecture over ECG custom-hardware platform . . . . ........................................................................................................................................32 Luis Miguel Soria Morillo , Daniel Scherz , Ralf Seepold and Juan Antonio Ortega Ramírez Drive assistant combined with EEG data applied to aggressive driving perception ..............................................................................................................................................................33 Emre Yay , Luis Miguel Soria Morillo , Natividad Martínez Madrid and Juan Antonio Ortega Ramírez Preparing an energy-efficiency and safety relevant driving system for the evaluation on a driving simulator. . . . . ..................................................................................................34 Emre Yay and Natividad Martínez Madrid, Juan Antonio Ortega Ramírez V XVII Jornadas de ARCA Towards emotion pattern extraction with the help of stress detection techniques in order to enable a healthy life. ................................................................................................ 39 Wilhelm D. Scherz , Juan Antonio Ortega and Ralf Seepold SmartDriver: An assistant for reducing stress and improve the fuel consumption .................................................................................................................................................................. 45 V. Corcoba Magaña and M. Muñoz Organero Plataforma para gestión de información de ciudadanos de una SmartCity ............53 Jorge Yago Fernández, Álvaro Arcos García, Juan Antonio Álvarez-García, Jesús Torres, Jesús Arias Fisteus, Víctor Corcoba Magaña, Mario Muñoz Organero, Luis Sánchez Fernández Sistema de reconocimiento de señales de tráfico para una SmartCity .....................57 Álvaro Arcos García, Juan Antonio Álvarez-García, Jorge Yago Fernández, Juan Antonio Ortega, Mario Soilán, Belén Riveiro, Pedro Arias-Sánchez Infraestructuras para gestión de información de una SmartCity ................................ 63 Miguel Luaces, Susana Ladra, Mario Muñoz Organero, Jesús Arias Fisteus, Víctor Córcoba Magaña, Pedro Arias-Sánchez, Belén Riveiro, Juan Antonio ÁlvarezGarcía, Juan Antonio Ortega, Jorge Yago Fernández A Pilot Study on Energy Saving in an Intelligent Building.............................................. 65 Zoe Falomir, Alejandro Fernández-Montes, Luis González-Abril Integrating SOAR Cognitive Architecture in ROS Environment on a Parrot AR.Drone 2.0. ..................................................................................................................................... 67 Sai Kishor Kothakota, Cecilio Angulo Towards Parameterizing a Colour Model depending on the Context........................ 73 Lledó Museros, Ismael Sanz Zoe Falomir Luis González-Abril Calculo de la odometría en un robot cuadrúpedo mediante técnicas de visión artificial................................................................................................................................................. 75 Lucía Lillo-Fantova, Manel Velasco, Cecilio Angulo Un estudio estadístico de los e-mail que recibe un investigador actual en el área de conocimiento de la computación y de la bioingeniería ............................................. 83 Luis González-Abrila y Yenny Lealb VI Proyecto Cognitive-AmI: Descripción y Resultados Zoe Falomir Bremen Spatial Cognition Research Centre University of Bremen Enrique-Schmidt-Str. 5, DE-28359 Bremen [email protected] Abstract puede interactuar con un sistema que controla el edificio mediante pantallas interactivas. En este artículo se describe el proyecto Descripciones cognitivas y semánticas de escenas para razonar y aprender en inteligencia ambiental (Cognitive-AmI, GA 328763) que ha sido financiado por el programa Marie Curie IntraEuropean Fellows del 7º Programa Marco de la Unión Europea. También, se explican sus principales resultados de forma divulgativa, se mencionan algunas de las publicaciones científicas más relevantes y se proporciona acceso a los datos obtenidos a través de la web del proyecto: https://sites.google.com/site/cognitiveami/ 1 Descripción Este proyecto trata de obtener información cualitativa a partir de imágenes/vídeos de entornos interiores. ¿Por qué información cualitativa? Porque las representaciones cualitativas abstraen detalles innecesarios y pueden tratar datos que contienen incertidumbre (por ejemplo ruido). Las representaciones cualitativas también se corresponden con conceptos lingüísticos que tienen significado para las personas, y por tanto, se pueden utilizar intuitivamente en la comunicación usuario-máquina. Además, el razonamiento cualitativo espacio-temporal (QSTR) [Cohn y Renz, 2007; Ligozat, 2011] ha definido previamente modelos útiles para razonar en el espacio a cerca de la localización [Hernández, 1991]], topología [Egenhofer y Al-Taha, 1992; Cohn et al. 1994], dirección [Freksa, 1992], visibilidad [Tarquini et al., 2007]], forma [Falomir et al. 2013], etc. Dichos modelos se ha aplicado en muchas áreas científicas como la robótica [Kunze et al., 2014; Falomir et al., 2013b], la arquitectura y el diseño [Bhatt and Freksa, 2015], los sistemas de información geográfica [Fogliarioni, 2013], el reconocimiento de esquemas o esbozos [Lovett et al. 2006], etc. Figura 1. Resumen gráfico del proyecto Cognitive-AmI. El problema de las imágenes/vídeos digitales es que discretizan todo el espacio y lo representan en una matriz de puntos de color o píxeles (por ejemplo píxeles en rojo, verde y azul o RGB en inglés). Dichos píxeles no están relacionados entre sí, es decir, no conservan las propiedades que el espacio tiene (por ejemplo continuidad, interrelaciones, etc.). Como consecuencia, un aspecto cognitivo tan básico como saber dónde termina una taza y donde empieza una mesa, no es tan trivial de calcular en el mundo de las imágenes digitales. Con la aparición de los sensores que incorporan información de profundidad (por ejemplo los sensores MS Kinect o Asus Xtion) este problema tiene una dimensión más que calcular, ya que ahora el espacio se discretiza utilizando en una nube de puntos en 3 dimensiones. El objetivo de este proyecto es utilizar los métodos disponibles en el campo de la visión por computador para reconocer objetos [Bay et al., 2008; Muja y Lowe,2009], regiones [Felzenszwalb y Huttenlocher, 2004] o movimientos [Zivkovic, 2004], y a partir de los datos obtenidos, intentar abstraer conceptos que conserven las propiedades del espacio y que puedan ayudar a describir escenas de manera más cognitiva. En el proyecto Cognitive-AmI (Figura 1) trabajamos con imágenes/vídeos capturados por cámaras situadas en un robot o en el interior de un edificio, como es el caso del edificio Cartesium en la Universidad de Bremen, donde se 1 2014], formas [Museros et al., 2015] y colores de pinturas [Falomir et al., 2015] utilizando las relaciones de vecindad conceptual entre conceptos cualitativos. Valores de similitud entre colores de pinturas de autores como Dalí, Miró, el Greco, Velázquez y Hundertwasser han sido calculados automáticamente (Figura 3) y comparados a aquellos proporcionados por las personas en una encuesta. El resultado de la comparación ha sido una correlación de valores. Por otra parte, como un sistema cognitivo debe tener la capacidad de aprender de entradas de sensores, técnicas de aprendizaje (por ejemplo máquinas de soporte vectorial) se han aplicado a la categorización de estilos de pintura (como por ejemplo Barroco, Impresionismo y PostImpresionismo) [Falomir et al., 2015b] donde también se ha observado que la utilización de colores sigue una lógica. Además, se ha demostrado la adaptabilidad al usuario del modelo cualitativo de color utilizado [Sanz et al., 2015]. En concreto, escenas de entornos interiores han sido capturadas en el edificio Cartesium, donde se encuentra el Centro Investigación Spatial Cognition en la Universidad de Bremen, para obtener un conjunto de datos donde aplicar el modelo QIDL desarrollado para obtener una descripción lógica y narrativa de espacios utilizando características cualitativas de forma, color, topología, ubicación y tamaño [Falomir, 2015]. El principal objetivo es describir la ubicación de objetos necesarios para realizar una tarea o conocidos a priori, pero también describir objetos desconocidos de los que podemos nombrar su color, forma o localización para recibir más información a partir de la interacción con el usuario. Esta descripción lógica se proporciona utilizando cláusulas de Horn implementadas en Prolog para razonar con localizaciones espaciales (Figura 2). Los experimentos realizados en el edificio Cartesium en salas comunes y en oficinas han mostrado la utilidad del método desarrollado [Falomir y Olteteanu, 2015]. Con el fin de ayudar a los agentes de software en la comprensión de los entornos interiores, estas descripciones cualitativas se han ligado también a descripciones ontológicas [Falomir, 2014; 2013b]. Figura 3. Ejemplo de valores de similitud entre los colores utilizados en pinturas de Dalí (D) y Miró (M). Además, también se ha mostrado la aplicabilidad de modelos cualitativos en la descripción de movimientos en videos, por ejemplo obteniendo la localización y dirección de un objeto en un instante determinado o en un período de tiempo. De nuevo, esta descripción de movimiento puede ser escrita utilizando cláusulas de Horn en Prolog que se pueden utilizar para razonar sobre la información obtenida e inferir tipos de movimientos (por ejemplo parabóla, rebote en pared, etc.) [Falomir y Rahman, 2015]. Además, para mejorar la comunicación hombre-máquina, se ha diseñado una gramática que obtiene frases en lenguaje natural a partir de las descripciones cualitativas obtenidas de las escenas y producir así una descripción narrativa [Falomir, 2013]. También se han hecho estudios sobre cómo las personas nos referimos a objetos en una escena para maximizar la discriminación entre el resto de los objetos y que nuestro interlocutor sepa a qué nos referimos cuando hablamos. El modelo generado [Mast et al., 2015] obtiene características de forma, color y localización tanto absolutas como difusas y compara su utilización. Nuestros estudios demuestran que los modelos no precisos (es decir un objeto puede ser nombrado como rojo, rosa o naranja según el interlocutor que nos habla) son más adaptables a las Figura 2. Esquema del proceso seguido para extraer descripciones lógicas de entornos interiores. Dentro del proyecto Cognitive-AmI se han definido también métodos de similitud para comparar escenas [Falomir et al., 2 situaciones de comunicación reales que los modelos absolutos/exactos. También se ha desarrollado un modelo cualitativo para describir objetos 3D basado en la profundidad vista desde diferentes perspectivas (Figura 4). Si consideramos 3 perspectivas de un objeto como por ejemplo, la delantera, lateral y superior, podemos tener en cuenta las relaciones de continuidad existentes en el espacio para definir condiciones que se han de encontrar en cada perspectiva. También podemos utilizar estas descripciones para inferir información de otras perspectivas como son la trasera, la del otro lateral o la inferior, que según el punto de vista adoptado pueden estar ocultas. Por ejemplo, si el objeto tiene un agujero abierto transversal, este debe estar representado en todas las perspectivas a las que afecta. No es coherente que se represente en una perspectiva y en otra no. Pues, de acuerdo con ello, se han obtenido descripciones lógicas en cláusulas de Horn, que se han programado y probado en Prolog [Falomir, 2015b, Falomir 2015c]. Los resultados obtenidos parecen prometedores y pensamos que pueden ayudar a los estudiantes a resolver tests de inteligencia como los de la agencia alemana Studienstiftung1 sobre dibujos técnicos de objetos 3D (Figura 5). En el mundo 3D, también hemos realizado estudios utilizando sensores Kinect para describir escenas reales que contienen objetos orientados (como por ejemplo, sillas, que tienen un frente diferente al frente del interlocutor) y hemos generado descripciones narrativas adecuadas al contexto [Kluth y Falomir, 2013]. Figura 5. Aplicación del modelo Q3D a la educación con el objetivo de ayudar a estudiantes a resolver tests de inteligencia sobre dibujo técnico. Finalmente, se han realizado tests cognitivos sobre creatividad y la relación de ésta con la asociación típica o atípica entre conceptos lingüísticos y visuales que hacemos las personas. Un ejemplo de Asociación Remota de Conceptos (RAT) sería qué asociamos las personas a la terna de conceptos: Cottage-Swiss-Cake (en español chozasuizo-pastel). Los estudios de Mednick y Mednick [1971] proporcionan Cheese (en español queso) como resultado convergente, pues existe el queso suizo, el pastel de queso y el requesón (en inglés cottage cheese). Se ha desarrollado un método computacional (comRAT-C) [Olteteanu y Falomir, 2015] el cual converge en un concepto relacionado con otros tres y proporciona gran parte de los resultados obtenidos en el test de Mednick y Mednick [1971] el cual fue creado para medir el nivel de creatividad en personas. Además dicho sistema computacional es capaz de dar otros resultados posibles por convergencia de dos conceptos, como por ejemplo Chocolate, en común a Swiss y Cake (chocolate suizo o pastel de chocolate). 2 Conclusiones En este artículo se describe el proyecto Descripciones cognitivas y semánticas de escenas para razonar y aprender en inteligencia ambiental (Cognitive-AmI, GA 328763) y sus principales resultados de forma divulgativa. Dicho proyecto ha sido financiado por la Unión Europea a través de las acciones Marie Curie del 7° programa marco (FP7). Figura 4. Ejemplo de descripción cualitativa basada en volúmenes de un objeto 3D simple. Para más detalles sobre métodos e implementación, se proporcionan las correspondientes publicaciones científicas en las referencias. Más información puede encontrarse también en la web del proyecto: https://sites.google.com/site/cognitiveami/ Agradecimientos A la financiación de la Unión Europea a través de las acciones Marie Curie del 7° programa marco (FP7) (GA 1 Test der Studienstiftung: Gehirnjogging für Hochbegabte o Prueba de la Fundación Académica Alemana sobre Cerebro Dotados. http://www.spiegel.de/quiztool/quiztool-49771.html 3 328763) y al Bremen Spatial Cognition Research Centre y su personal. También se agradece la colaboración de los siguientes investigadores y coautores de artículos: Ana-Maria Olteteanu (U. Bremen), Vivien Mast (U. Postdam), Diedrich Wolter (U. Bamberg), Lledó Museros (U. Jaume I), Ismael Sanz (U. Jaume I), Luis Gonzalez-Abril (U. Sevilla) y Christian Freksa (U. Bremen). scenes in robotics, Pattern Recognition Letters, 38: 731– 743, 2013. [Online]. Available: http://dx.doi.org/10.1016/j.patrec.2012.08.012 [Falomir et al., 2014] Z. Falomir, L. Museros, and L. Gonzalez-Abril. Towards a similarity between qualitative image descriptions for comparing real scenes. In Qualitative Representations for Robots, Proc. AAAI Spring Symposium, Technical Report SS-14-06, pages 42–49, 2014. ISBN 978-1-57735-646-2, Palo Alto, California, USA, 2014. [Falomir, 2014] Z. Falomir. An approach for scene interpretation using qualitative descriptors, semantics and domain knowledge. In Knowledge Representation and Reasoning in Robotics, AAAI Spring Symposium Series, pages 95–98, 2014. ISBN 978-1-57735-646-5. Palo Alto, California, USA, 2014. [Falomir, 2015a] Zoe Falomir. A qualitative image descriptor QIDL+ applied to ambient intelligent systems. In Proceedings of the 10th International Workshop on Artificial Intelligence Techniques for Ambient Intelligence (AITAmI15), co-located at IJCAI-2015, Accepted. Buenos Aires, Argentina, 2015. [Falomir, 2015b] Falomir Z., A Qualitative Model for Reasoning about 3D Objects using Depth and Different Perspectives, 1st Workshop on Logics for Qualitative Modelling and Reasoning (LQMR). Federated Conference on Computer Science and Information Systems (FedCSIS), pp. 1--9, Lodz, Poland, September 2015. [Falomir, 2015c] Falomir Z., A Qualitative Model for Describing 3D Objects using Depth. In Spatio Temporal Dynamics (STeDy) Workshop at International Joint Conference on Artificial Intelligence (IJCAI), Buenos Aires, Argentina, July 2015. [Falomir y Olteteanu, 2015] Z. Falomir and A-M. Olteteanu. Logics based on qualitative descriptors for scene understanding. Neurocomputing, 161:3–16, 2015. Available: http://dx.doi.org/10.1016/j.neucom.2015.01.074 [Falomir y Rahman, 2015] Z. Falomir and S. Rahman. From qualitative descriptors of movement towards spatial logics for videos. In J. Dias, F. Escolano, and R. Marfil, editors, Proc. of the 3rd Workshop on Recognition and Action for Scene Understanding (REACTS), accepted, 2015. [Falomir et al., 2015a] Z. Falomir, L. Museros, and L. Gonzalez-Abril. A model for colour naming and comparing based on conceptual neighbourhood. An application for comparing art compositions. KnowledgeBased Systems, 81:1–21, 2015. Available: http://dx.doi.org/10.1016/j.knosys.2014.12.013 [Falomir et al., 2015b] Z. Falomir, L. Museros, I. Sanz, and L. Gonzalez-Abril. Guessing art styles using qualitative colour descriptors, SVMs and logics. In Artificial Intelligence Research and Development, Frontiers in References [Bay et al., 2008] Herbert Bay, Andreas Ess, Tinne Tuytelaars, and Luc Van Gool. Speeded-up robust features (SURF). Comput. Vis. Image Underst., 110(3):346–359, June 2008. [Bhatt y Freksa, 2015] M. Bhatt and C. Freksa, Spatial computing for design an artificial intelligence perspective, in Studying Visual and Spatial Reasoning for Design Creativity, J. S. Gero, Ed., 2015, pp. 109– 127. [Cohn et al. 1994] Cohn, A., Randell, D., Cui, Z., Bennett, O., and Gooday, J. (1994). Taxonomies of logically defined qualitative spatial relations. In in N. Guarino and R. Poli (eds), Formal Ontology in Conceptual Analysis and Knowledge Representation, pages 831-846. Kluwer. [Cohn y Renz, 2007] A. G. Cohn and J. Renz, Qualitative Spatial Reasoning, Handbook of Knowledge Representation, V. L. F. Harmelen and B. Porter, Eds. Wiley-ISTE, London: Elsevier, 2007. [Egenhofer y Al-Taha, 1992] Egenhofer, M. J. and Al-Taha, K. K. (1992). Reasoning about gradual changes of topological relationships. In Frank, A. U., Campari, I., and Formentini, U., editors, Theories and Methods of Spatio-Temporal Reasoning in Geographic Space. Intl. Conf. GIS|From Space to Territory, volume 639 of Lecture Notes in Computer Science, pages 196-219, Berlin. Springer. [Falomir et al. 2013] Falomir Z., Gonzalez-Abril L., Museros L., Ortega J. (2013), Measures of Similarity between Objects from a Qualitative Shape Description, Spatial Cognition and Computation, 13 (3): 181–218. [Falomir, 2013a] Z. Falomir. Towards cognitive image interpretation qualitative descriptors, domain knowledge and narrative generation. In V. Botti K. Gibert and R. Reig-Bolao, editors, Artificial Intelligence Research and Development, Frontiers in Artificial Intelligence and Applications, vol. 256, pages 77-86, IOS Press, Amsterdam, 2013. [Falomir, 2013b] Z. Falomir. Towards scene understanding using contextual knowledge and spatial logics. In J. Dias, F. Escolano, and R. Marfil, editors, Proc. of the 2nd Workshop on Recognition and Action for Scene Understanding (REACTS), pages 85–100, 2013. ISBN 978-84-616-7092-5. [Falomir et al. 2013b] Z. Falomir, L. Museros, V. Castelló, and L. Gonzalez-Abril, Qualitative distances and qualitative image descriptions for representing indoor 4 Artificial Intelligence and Applications. IOS Press, accepted, Amsterdam, 2015. [Felzenszwalb y Huttenlocher, 2004] P. F. Felzenszwalb, D. P. Huttenlocher, Efficient graph-based image segmentation, Int. J. Comput. Vis. 59 (2) (2004) 753 167–181. [Fogliarioni, 2013] P. Fogliaroni, Qualitative Spatial Configuration Queries. Towards Next Generation Access Methods for GIS, ser. Dissertations in Geographic Information Science. IOS Press, 2013, ISBN 978-1614992486. [Freka, 1992] Freksa, C. (1992). Using orientation information for qualitative spatial reasoning. In Frank, A. U., Campari, I., and Formentini, U., editors, Theories and Methods of Spatio-Temporal Reasoning in Geographic Space. Intl. Conf. GIS|From Space to Territory, volume 639 of Lecture Notes in Computer Science, pages 162-178, Berlin. Springer. [Hernandez, 1991] Hernandez, D. (1991). Relative representation of spatial knowledge: The 2-D case. In Mark, D. M. and Frank, A. U., editors, Cognitive and Linguistic Aspects of Geographic Space , NATO Advanced Studies Institute, pages 373-385. Kluwer, Dordrecht. [Kluth y Falomir, 2013] T. Kluth and Z. Falomir. Studying the role of location in 3D scene description using natural language. In J. A. Ortega I. Sanz, L. Museros, editor, XV Workshop of the Association on Qualitative Reasoning and its Applications (JARCA13). Qualitative Systems and their applications to Diagnosis, Robotics and Ambient Intelligence. Proceedings from the University of Seville, pages 33–36, 2013. ISBN 978-84-616-76224. [Kunze et al., 2014] L. Kunze, C. Burbridge, and N. Hawes, Bootstrapping probabilistic models of qualitative spatial relations for active visual object search, in Qualitative Representations for Robots, Proc. AAAI Spring Symposium, Technical Report SS-14-06, 2014, pp. 81– 80, ISBN 978-1-57735-646-2. [Ligozat, 2011] G. Ligozat, Qualitative Spatial and Temporal Reasoning. Wiley-ISTE, London: MIT Press, 2011. [Lovett et al. 2006] A. Lovett, M. Dehghani, and K. Forbus, Learning of qualitative descriptions for sketch recognition, in Proc. 20th Int. Workshop on Qualitative Reasoning (QR), Hanover, USA, July, 2006. [Mast et al., 2015] V. Mast, Z. Falomir, and D.Wolter. Probabilistic reference and grounding with PRAGR for dialogues with robots. Journal of Experimental & Theoretical Artificial Intelligence, under revision, 2015. [Mednick y Mednick, 1971] Mednick, S.A., Mednick, M.: Remote associates test: Examiner's manual. Houghton Mifflin (1971). [Muja y Lowe, 2009] M. Muja and D. G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. In VISAPP Int. Conf. on Computer Vision Theory and Applications, pages 331–340, 2009. [Museros et al., 2015] L. Museros, Z. Falomir, I. Sanz, and L. Gonzalez-Abril. Sketch retrieval based on qualitative shape similarity matching: Towards a tool for teaching geometry to children. AI Communications, 28(1):73–86, 2015. [Sanz et al., 2015] I. Sanz, L. Museros, Z. Falomir, and L. Gonzalez-Abril. Customizing a qualitative colour description for adaptability and usability. Pattern Recognition Letters, SI: Cognitive Systems for Knowledge Discovery, http://dx.doi.org/10.1016/j.patrec.2015.06.014 [Olteteanu i Falomir, 2015] Olteteanu, A.M., Falomir, Z.: comRAT-C - A computational compound Remote Associates Test solver based on language data and its comparison to human performance. Pattern Recognition Letters (2015), http://dx.doi.org/10.1016/j.patrec.2015.05.015 [Tarquini et al. 2007] Tarquini, F., De Felice F., Fogliaroni P., Clementini E., A qualitative model for visibility relations. KI, Advances in Artificial Intelligence 2007. [Zivkovic, 2004] Zoran Zivkovic. Improved adaptive gaussian mixture model for background subtraction. In Pattern Recognition, 2004. ICPR 2004. Proceedings of the 17th International Conference on, volume 2, pages 28 – 31. IEEE, 2004. 5 A Qualitative Shape Description Scheme for Juxtaposing Objects Applied to Solve Spatial Transformation Tasks: a proof-of-concept Zoe Falomir∗ Universität Bremen Lledo´ Museros and Ismael Sanz Universitat Jaume I Abstract the implementation), in order to have a more cognitive performance; (ii) if there is a significant correlation between the problems that are hard to solve for the participants and those that are also challenging for the QSDJux approach. The goal of the study presented in this paper is to determine if the Qualitative Shape Description Scheme for juxtaposing objects (QSDJux) [Museros et al., 2011, 2010] has a cognitive performance, that is, it can perform a juxtaposition task in a similar way as human participants do when solving tests involving mental transformation skills (i.e. direct or diagonal translation and direct or diagonal rotation, etc). An example case from the psychological test developed by Levine et al. [1999] has been selected and it is used as a proof-of-concept for this cognitive verification. 1 Luis Gonzalez-Abril Universidad de Sevilla Introduction A fundamental question in human cognition is how people reason about space. The ability to represent and transform spatial information is a vital component of humans. It is important in everyday activities, such as navigating in a new city or finding an office in a public building. The Qualitative Shape Description Scheme (QSDJux) [Museros et al., 2011, 2010] is able to juxtapose two shapes described qualitatively, and to generate a new qualitative shape description which corresponds to the new juxtaposed shape. The work by Levine et al. [1999] used a two-dimensional stimuli that is divided in half by a vertical line of symmetry. In a test (see Figure 1), the two halves were shown to children either rotated or translated apart. Then children were asked to find out which of four given objects will result when putting the two halves together. Results of this test are analyzed to study how participants perform when doing mental transformation (translation and rotation on bilaterally symmetrical items and on vertically symmetrical items). In this paper, QSDJux is used to automatically solve an example of the tests presented by Levine et al. [1999]. The aspects to study are: (i) how the QSDJux could be improved (regarding both the theoretical framework or Figure 1: Example of a question in the tests presented in Levine et al. [1999]. Given stimuli a, b, c and d, the participant must determine which object results when juxtaposing them. The rest of the paper is organised as follows. Section 2 provides an example of a qualitative shape juxtaposition (QSDJux). Section 3 presents the proof-of-concept computed and the results observed. Finally, Section 5 presents the conclusions and outlines the ideas for future work. 2 Example of Qualitative Shapes Juxtaposition based on QSDJux This section shows an example of the qualitative juxtaposition (+q ) of two figures following the QSDJux scheme. Figure 2 shows the graphic result and its qualitative description obtained using the qualitative shape description schema presented in Museros et al. [2011, 2010]. ∗ Correspondence to: Zoe Falomir, Bremen Spatial Cognition Centre, FB3 - Informatics, Universität Bremen, P.O. Box 330 440, 28334 Bremen, Germany. E-mail: [email protected] 6 ∗ Starting by vertex 1 in F1 , we copy it in the new object, and repeat this step with the next vertex clockwise, up to the vertex which is one of the vertices in the +q operation. ∗ This vertex is replaced by the result of applying +q between this vertex and the corresponding one in object F2 . ∗ We continue copying the vertices in object F2 (clockwise) up the next vertex in object F2 related with the +q operation. This vertex description is replaced by the +q of this vertex and its corresponding one in object F1 . ∗ If there are still vertices in object F1 which have not been considered during the juxtaposition, they are copied to the new object F3 too. 3 Figure 2: Example of a juxtaposition of two objects. A Computational Proof-of-Concept and Results In order to test if QSDJux is able to juxtapose the stimuli used in Levine et al. [1999] we have chosen an example presented in that paper, shown in Figures 3 and 4. Figure 3 shows the array of possible objects to be built using the objects in Figure 4. The QSDJux approach is based on a qualitative shape description scheme, which is defined by the 4-tuple (P, ∗, C, A) as follows: • P is a set of primitive shapes, which is the set of the regular and non-regular polygonal shapes described by the qualitative shape description theory presented in Museros and Escrig [2004]; • ∗ is a set of functions/operations, called shape operators, which in this case is the qualitative juxtaposition operator, named +q . In order to juxtapose two shapes it is necessary to indicate the related edges in +q , and it is indicated using the following notation: A(i) +q B(m), where A, B are shapes to be juxtaposed, and i and m indicate the first vertices to be considered (clockwise) in the juxtaposition operation; • C is a set of production rules, which specifies how the shape operators are to be used to construct new shapes from the already existing shapes. This set is defined by an Extended Backus-Naur Form (EBNF) production rules and a set of tables that can be found in Museros et al. [2011, 2010]; and, Figure 3: Example of choice array in Levine et al. [1999]. • A is a set of explicit axioms, which specifies conditions that each constructed shape must satisfy. In a sense, A is a set of constraints or restrictions. In a shape description scheme, the set A may or may not be built. In this case, the restrictions defined, are: – It is not possible to overlap shapes when computing +q . – The shapes considered as operators are only simply connected and closed 2D regions. – In +q it is necessary to specify the edges involved in the operation, and these edges should satisfy that they must have similar lengths. – When considering objects F1 and F2 , the vertices in object F3 , resulting of juxtaposing F1 and F2 (F3 = F1 +q F2 ), are defined as follows: Figure 4: Objects to use in order to build the stimuli shown in Figure 3. The QSDJux approach has been implemented in an application where, given two images containing one object, first the qualitative shape description of the objects in each image is calculated and then, the qualitative shape description of the object obtained by the juxtaposition of 7 both objects is obtained. The application used in the selected proof-of-concept is presented in Figure 5. Figure 6: Screenshot of the prototype application of QSDJux showing the qualitative descriptions of the objects involved in the juxtaposition and the final qualitative shape description obtained, but selecting a different pair of equal edges. Figure 5: Screenshot of the prototype application of QSDJux showing the qualitative descriptions of the objects involved in the juxtaposition and the final qualitative shape description obtained for the selected proof-of-concept. where i is the number of vertices of the first object, m is the number of vertices of the second object, and 2 are the vertices that disappear in the juxtaposition. If the way QSDJux approach is juxtaposing shapes would be the way humans do it –we need a deeper research study to affirm that– then the stimuli a), b) and c) presented in Figure 3 would be discarded because they exceed the maximal number of possible vertices (in this case 4) and the solution would be obvious. However, there are more complicated cases in the test study by Levine et al. [1999] in which discarding the objects by the maximal number of vertices would not be so effective. Moreover, human beings and specially children –who usually have a less categorical and a more creative way of thinking– are not constrained when juxtaposing shapes. Thus, they can try any possibilities to juxtapose the two objects in Figure 4. Therefore, so that the QSDJux approach can reflect all the possible juxtapositions of two objects, it should be extended to define also juxtapositions using: (i) only one vertex (see Figure 7), where the maximal number of vertices of the resulting object is i + m. (ii) one vertex and one of the edges of the object (see Figure 8), where the maximal number of vertices of the resulting object is i + m − 1. (iii) edges of different sizes (see Figure 9), where the maximal number of vertices of the resulting object is i+m. It is important to note that in the second example, one of the objects has been scaled and, in this way, it is very similar to one of the choices of the array in Figure 4, if QSDJux could identify that, it would be able to explain the actions to carry out to build object (c) in Figure 4. We have tested QSDJux application using the objects in Figure 4 in different orientations in order to find out if the QSDJux scheme is able to juxtapose two objects even if they have undergone a direct translation, a diagonal translation, a direct rotation or a diagonal rotation (see Figure 1 for examples of these transformations). In all cases the system has been able to juxtapose the objects. The challenging aspect in QSDJux is to find which are exactly the edges to juxtapose. Once these edges are detected, the resulting object corresponds to one of the objects shown in the choice array. Note that sometimes it is possible to juxtapose the objects using distinct pairs of equal edges. Thus, all the combinations must be computed until the system finds the juxtaposition that produces one of the object in the choice array (see for example Figure 6). 4 Discussion To test the performance of the computational QSDJux approach, the juxtaposing edge must not be provided a priori. Then, all the possibilities of juxtaposing the two objects must be tried and a shape similarity method (i.e. that defined by Falomir et al. [2013]) must be used to identify which juxtaposing action corresponds to one of the objects in the choice array. This is the usual computational procedure to follow. Another more cognitive procedure to select the object from the choice array is to think about the maximal number of vertices that is possible as a result of the juxtaposing operation. In QSDJux, as the juxtaposition is done using an edge of similar length, if the two objects are convex, the maximal number of vertices of the resulting object is 5 Conclusions and Future Work The proof-of-concept presented in this paper showed us that the QSDJux scheme may be used to automatically i+m−2 8 has to be embedded in a more general system where all the edge juxtaposition combinations are automatically done without the need of a user introducing the edges involved in the operation. Here, we have identified the first challenge to face: determining when two edges are compatible or not for being juxtaposed. Then, the resulting juxtaposed objects must be compared with the objects in the choice array automatically. This can be done by using a similarity measure between qualitative shape descriptors. Here, we have identified the second challenge since the shape similarity method defined by Falomir et al. [2013] corresponds to an extension of the qualitative shape description used by QSDJux, which was created to avoid ambiguities in shape description as explained in Falomir et al. [2008]. Then, an extension of the QSDJux to include the improved qualitative shape descriptor is needed. Regarding the compatibility of juxtaposition of two edges, the third challenge is to extend the approach to calculate juxtapositions of two objects by: (i) only one vertex; (ii) one vertex and one of the edges of the object; and (iii) edges of different sizes. As future work, we intend to tackle the 3 challenges previously mentioned and then to use QSDJux approach to carry out automatic tests and compare them to people’s performance. Figure 7: Example of juxtaposition only using one vertex. Figure 8: Example of juxtaposition using one vertex and one edge of the objects. Acknowledgments Dr.-Ing. Zoe Falomir gratefully acknowledges the project COGNITIVE-AMI (GA 328763) funded by the European Commission through FP7 Marie Curie IEF actions and the project Cognitive Qualitative Descriptions and Applications (CogQDA) funded by the Universität Bremen through the 04-Independent Projects for Postdocs action. The support by the Bremen Spatial Cognition Centre (BSCC, http: //bscc.spatial-cognition.de/) and the Spatial Intelligent Learning Centre (SILC) are also acknowledged. Dr. Luis Gonzalez-Abril acknowledges the funding by the Spanish Ministry of Economy and Competitiveness HERMES (TIN2013-46801-C4-1-r) and the Andalusian Regional Ministry of Economy (project SIMON TIC-8052). Dr. Lledo Museros and Dr. Ismael Sanz acknowledge the funding by the Spanish Ministry of Economy and Competitiveness (project TIN2011-24147), Generalitat Valenciana (project GVA/2013/135) and Universitat Jaume I (project P11B2013-29). Figure 9: Examples of juxtaposition using edges with no similar length. Note that in the second example, one of the objects has been scaled and, in this way, it is very similar to one of the choices of the array in Figure 4. References solve spatial transformation tests similar to those provided in Levine et al. [1999], since the QSDJux approach is able to juxtapose objects even if they have undergone a direct translation, a diagonal translation, a direct rotation or a diagonal rotation, this is due to the inherited cognitive properties of the Qualitative Shape Descriptior used [Museros and Escrig, 2004; Falomir et al., 2013]. The critical aspect in QSDJux approach is that the edges of juxtaposition must be of equal size and they must also be indicated to the system by the user. Therefore, there is still work to be done in order to carry out the test completely automatically. First of all, the code implementing the scheme Z. Falomir, J. Almazán, L. Museros, and M.T. Escrig. Describing 2D objects by using qualitative models of color and shape at a fine level of granularity. In Proc. Spatial and Temporal Reasoning Workshop at the 23rd American Association on Artificial Intelligence (AAAI) Conference, ISBN: 978-1-57735-379-9, pages 7–15. AAAI-Association, Chicago, Illinois, USA, 2008. Z. Falomir, L. Gonzalez-Abril, L. Museros, and J. A. Ortega. Measures of similarity between objects based on qualitative shape descriptions. Spatial Cognition & Computation, 13(3):181–218, 2013. 9 S.C. Levine, J. Huttenlocher, A. Taylor, and A. Langrock. Early sex differences in spatial skill. Developmental psychology, 35(4):940, 1999. L. Museros and M. T. Escrig. A qualitative theory for shape representation and matching for design. In Proceedings ECAI 2004, pages 858 – 862, 2004. L. Museros, L. Gonzalez-Abril, F. Velasco, and Z. Falomir. A pragmatic qualitative approach for juxtaposing shapes. Journal of Universal Computer Science (J.UCS), 16(11):1410–1424, 2010. L. Museros, Z. Falomir, , L. Gonzalez-Abril, and F. Velasco. A qualitative shape description scheme for generating new manufactured shapes. In 25th International Workshop on Qualitative Reasoning (QR), co-located at the 22nd Joint International Conference on Artificial Intelligence (IJCAI), pages 116 – 124, Barcelona, Spain, July 2011. 10 Un big picture sobre las tecnologı́as de computacion ´ y almacenamiento distribuidos Damin ´ Fernndez ´ Cerero, Alejandro Fernandez-Montes, ´ Juan Antonio Ortega Universidad de Sevilla Departamento de Lenguajes y Sistemas Informáticos Av. Reina Mercedes s/n, 41012 Sevilla [email protected], [email protected], [email protected] Abstract Software as a Service: Donde los usuarios consumen un servicio software transparente para ellos en la nube. GMail, Whatsapp o Facebook son ejemplos de este paradigma. Tras la consolidacin del paradigma de cloud computing y el incremento en el uso de servicios alojados en la nube, las necesidades computacionales y de almacenamiento dentro de los centros de datos crece a un ritmo cada vez mayor, y con él la aparicion ´ de nuevas tecnologı́as. En este trabajo hacemos una comparativa del ecosistema big data, ası́ como las tendencias y problemáticas a abordar en un futuro proximo. ´ 1. Platform as a Service: Donde los usuarios consumen un servicio online donde pueden acceder a entornos de ejecucion ´ de aplicaciones de manera transparente para ellos. Google App Engine son ejemplos de este paradigma. Infrastructure as a Service: Donde el proveedor de servicios ofrece al usuario un ordenador como servicio donde pueden instalar cualquier entorno de manera transparente para ellos. Amazon EC2, o JBoss OpenShift son ejemplos de este paradigma. Introduccion ´ Debido al auge en la demanda de los servicios prestados bajo el paradigma de cloud computing, la utilizacion ´ masiva de smartphones consumiendo software como servicio, el almacenamiento generalizado de nuestros archivos en plataformas online y la irrupcion ´ de nuevos paradigmas de computacion ´ como el de internet of things o el de internet of everything crece constantemente la necesidad de una alta capacidad tanto de computacion ´ como de almacenamiento que den servicio en tiempo real a millones de usuarios. Esta evolucion ´ en el patron ´ de consumo de software gestionado y servido desde enormes centros de datos ha llevado a que el conocido como ecosistema big data haya tenido que desarrollarse en un breve perı́odo de tiempo para cubrir las necesidades especı́ficas de los diferentes escenarios, creando ası́ un paisaje poco estandarizado, heterogéneo y difı́cilmente gestionable. En este trabajo hacemos una comparativa del ecosistema y tecnologı́as actuales dentro del campo de la computacion ´ distribuida, la evolucion ´ y desarrollo de las necesidades que satisfacen, ası́ como las tendencias y problemáticas a abordar en un futuro proximo. ´ 2. Debido a que las necesidades de operacion, ´ condiciones y naturaleza estas cargas de trabajo son tan distintas, los requisitos y restricciones de cada una de ellas no pueden ser satisfechas con un único stack tecnologico. ´ Para cubrir estos requisitos, en los últimos meses y anos ˜ ha surgido un elenco de tecnologı́as focalizadas en solucionar problemas muy especı́ficos o en mejorar las soluciones existentes en situaciones muy concretas, aumentando ası́ el abanico de posibilidades tecnologicas, ´ complicando la operatividad de los diferentes stacks tecnologicos ´ debido al gran numero ´ de combinaciones posibles de los mismos. Con el objetivo de paliar esta falta de estandarizacion ´ para solucionar problemas compartidos por muchos operadores de centros de datos, diferentes fundaciones de codigo ´ abierto como Apache Software Foundation y consorcios de empresas están trabajando en homogeneizar las soluciones y proponer stacks estándares para diferentes problemas facilitando ası́ su puesta en marcha, comprension ´ y adopcion. ´ Sin embargo, las necesidades y nuevos paradigmas parecen desarrollarse a una velocidad mayor que estos intentos de estandarizacion, ´ por lo que nuevas tecnologı́as surgen para cubrir el vacı́o de mercado que se generan en estos nuevos nichos, agravando aun ´ más la situacion ´ antes comentada. Para comprender este escenario, en este trabajo explicaremos los diferentes conceptos subyacentes a las tecnologı́as actuales para poder ası́ agruparlos en diferentes categorı́as segun ´ su enfoque y solucion ´ aportada, vislumbrando también las tendencias en la evolucion ´ del ecosistema big data ası́ como las necesidades no cubiertas que puedan desarrollarse en Analisis ´ del problema Los grandes centros de datos que suponen el nucleo ´ de las aplicaciones en internet están compuestos por cientos o miles de nodos que a nivel logico ´ deben operar como una única entidad, poniendo a disposicion ´ de las necesidades de los operadores de estas aplicaciones toda su capacidad operativa. Sin embargo, la carga de trabajo que satisfacen estos centros de datos es muy diversa, dando soporte a paradigmas tan diferentes como: 11 contrar Cassandra y una gran variedad de soluciones NoSQL. Coordinadores: En esta capa se encuentran las soluciones encargadas de mantener el correcto estado y consistencia entre las multiples ´ réplicas de los datos, estados intermedios de las tareas, etc. Como ejemplo de estas soluciones de coordinacion ´ podemos encontrar: Google Chubby [Burrows, 2006] o Apache ZooKeeper [Hunt et al., 2010], entre otros. un futuro cercano. 3. Estructura logica ´ de un centro de datos Para comprender las soluciones tecnologicas ´ que surgen en mercado, lo primero que debemos conocer es como ´ se divide y estructura logicamente ´ un centro de datos, además de enteder como ´ interactuan ´ y colaboran entre sı́, teniendo ası́ una suerte de piezas que conforman el puzle que soluciona las diferentes necesidades tanto de computacion ´ como de almacenamiento de los operadores de los centros de datos. Por tanto, describiremos qué parte de este gran problema del big data soluciona cada una de las divisiones o capas. Aunque estas divisiones pueden variar segun ´ el punto de vista sobre el que categoricemos, tomando en consideracion ´ una vision ´ de operacion ´ podemos dividir el centro de datos al menos en estas grandes capas: Teniendo en cuenta cada una de las particularidades de las diferentes tecnologı́as que pueden utilizarse dentro de cada una de las capas logicas ´ de nuestro centro de datos, podremos conformar diferentes stacks tecnologicos ´ que den solucion ´ a los requisitos de los diferentes servicios a los que nuestro centro de datos tenga que dar soporte. Referencias Sistemas de archivos distribuidos: En esta capa se encuentran las soluciones encargadas de cubrir la necesidad de almacenaje y servicio de los datos que aloja y necesita en tiempo de ejecucion ´ el centro de datos. Como ejemplo de estos sistemas de archivos distribuidos podemos encontrar: GFS [Ghemawat et al., 2003] o su implementacion ´ en codigo ´ abierto HDFS [Shvachko et al., 2010], QFS [Ovsiannikov et al., 2013] o Tachyon [Li et al., 2013], entre otros. [Burrows, 2006] Mike Burrows. The chubby lock service for loosely-coupled distributed systems. In Proceedings of the 7th symposium on Operating systems design and implementation, pages 335–350. USENIX Association, 2006. [Chang et al., 2008] Fay Chang, Jeffrey Dean, Sanjay Ghemawat, Wilson C Hsieh, Deborah A Wallach, Mike Burrows, Tushar Chandra, Andrew Fikes, and Robert E Gruber. Bigtable: A distributed storage system for structured data. ACM Transactions on Computer Systems (TOCS), 26(2):4, 2008. [Ching, 2013] Avery Ching. Scaling apache giraph to a trillion edges. Facebook Engineering blog, 2013. [Dean and Ghemawat, 2008] Jeffrey Dean and Sanjay Ghemawat. Mapreduce: simplified data processing on large clusters. Communications of the ACM, 51(1):107–113, 2008. [Ghemawat et al., 2003] Sanjay Ghemawat, Howard Gobioff, and Shun-Tak Leung. The google file system. In ACM SIGOPS operating systems review, volume 37, pages 29–43. ACM, 2003. [Harter et al., 2014] Tyler Harter, Dhruba Borthakur, Siying Dong, Amitanand S Aiyer, Liyin Tang, Andrea C ArpaciDusseau, and Remzi H Arpaci-Dusseau. Analysis of hdfs under hbase: a facebook messages case study. In FAST, volume 14, page 12th, 2014. [Hausenblas and Nadeau, 2013] Michael Hausenblas and Jacques Nadeau. Apache drill: interactive ad-hoc analysis at scale. Big Data, 1(2):100–104, 2013. [Hindman et al., 2011] Benjamin Hindman, Andy Konwinski, Matei Zaharia, Ali Ghodsi, Anthony D Joseph, Randy H Katz, Scott Shenker, and Ion Stoica. Mesos: A platform for fine-grained resource sharing in the data center. In NSDI, volume 11, pages 22–22, 2011. [Hunt et al., 2010] Patrick Hunt, Mahadev Konar, Flavio Paiva Junqueira, and Benjamin Reed. Zookeeper: Wait-free coordination for internet-scale systems. In USENIX Annual Technical Conference, volume 8, page 9, 2010. Negociadores de recursos: En esta capa se encuentran las soluciones encargadas de cubrir la necesidad de asignar recursos computacionales como CPUs o memoria RAM a las diferentes tareas. Como ejemplo de estos negociadores de recursos podemos encontrar: Apache YARN [Vavilapalli et al., 2013], Apache Mesos [Hindman et al., 2011] o Google Omega [Schwarzkopf et al., 2013], entre otros. Motores de ejecucion: ´ En esta capa se encuentran las soluciones responsables de la ejecucion ´ de las diferentes tareas y, por tanto, de satisfacer las necesidades de computacion ´ con el sistema de archivos distribuidos y el negociador de recursos. Como ejemplo de estos motores de ejecucion ´ podemos encontrar: Google MapReduce [Dean and Ghemawat, 2008] o su implementacion ´ en codigo ´ abierto, Apache MapReduce; Google Dremel [Melnik et al., 2010] o sus implementaciones en codigo ´ abierto Apache Drill [Hausenblas and Nadeau, 2013] o Cloudera Impala [Kornacker and Erickson, 2012]; Google Pregel [Malewicz et al., 2010] o su implementacion ´ en codigo ´ abierto Apache Giraph [Ching, 2013], entre otros. Bases de datos: En esta capa se encuentran las soluciones encargadas de ofrecer un acceso aleatorio en tiempo real a pequenas ˜ partes de la informacion ´ almacenada frente a lo ofrecido por los motores de ejecucion: ´ procesar grandes cantidades de informacion ´ de manera secuencial. Como ejemplo de estas bases de datos distribuidas podemos encontrar: Google BigTable [Chang et al., 2008] o su implementacion ´ en codigo ´ abierto, Apache HBase [Harter et al., 2014]; también podemos en- 12 [Kornacker and Erickson, 2012] Marcel Kornacker and Justin Erickson. Cloudera impala: Real time queries in apache hadoop, for real. ht tp://blog. cloudera. com/blog/2012/10/cloudera-impala-real-time-queriesin-apache-hadoop-for-real, 2012. [Li et al., 2013] Haoyuan Li, Ali Ghodsi, Matei Zaharia, Eric Baldeschwieler, Scott Shenker, and Ion Stoica. Tachyon: Memory throughput i/o for cluster computing frameworks. memory, 18:1, 2013. [Malewicz et al., 2010] Grzegorz Malewicz, Matthew H Austern, Aart JC Bik, James C Dehnert, Ilan Horn, Naty Leiser, and Grzegorz Czajkowski. Pregel: a system for large-scale graph processing. In Proceedings of the 2010 ACM SIGMOD International Conference on Management of data, pages 135–146. ACM, 2010. [Melnik et al., 2010] Sergey Melnik, Andrey Gubarev, Jing Jing Long, Geoffrey Romer, Shiva Shivakumar, Matt Tolton, and Theo Vassilakis. Dremel: interactive analysis of web-scale datasets. Proceedings of the VLDB Endowment, 3(1-2):330–339, 2010. [Ovsiannikov et al., 2013] Michael Ovsiannikov, Silvius Rus, Damian Reeves, Paul Sutter, Sriram Rao, and Jim Kelly. The quantcast file system. Proceedings of the VLDB Endowment, 6(11):1092–1101, 2013. [Schwarzkopf et al., 2013] Malte Schwarzkopf, Andy Konwinski, Michael Abd-El-Malek, and John Wilkes. Omega: flexible, scalable schedulers for large compute clusters. In Proceedings of the 8th ACM European Conference on Computer Systems, pages 351–364. ACM, 2013. [Shvachko et al., 2010] Konstantin Shvachko, Hairong Kuang, Sanjay Radia, and Robert Chansler. The hadoop distributed file system. In Mass Storage Systems and Technologies (MSST), 2010 IEEE 26th Symposium on, pages 1–10. IEEE, 2010. [Vavilapalli et al., 2013] Vinod Kumar Vavilapalli, Arun C Murthy, Chris Douglas, Sharad Agarwal, Mahadev Konar, Robert Evans, Thomas Graves, Jason Lowe, Hitesh Shah, Siddharth Seth, et al. Apache hadoop yarn: Yet another resource negotiator. In Proceedings of the 4th annual Symposium on Cloud Computing, page 5. ACM, 2013. 13 A multidimensional expertise recommender tool German ´ Sanchez-Hernandez ´ ´ ESADE-URL Sant Cugat del Vallès Jennifer Nguyen ESAII–UPC Barcelona Nuria ´ Agell ESADE–URL Sant Cugat del Vallès [email protected] [email protected] [email protected] Abstract rather than “the right expert”. The ER described in this work tries to fill this gap by considering additional information regarding some secondary skills not directly related to the areas of knowledge of the candidates (subskills), their proximity to the user that is requesting the recommendation and the current availability of the candidates. In the following, a list of existing expertise recommender systems that come as standard is provided, as well as a description of their main characteristics. • MITRE’s Expert Finder [Mattox et al., 1999] was created within the MITRE Corporation to identify experts within topic domains. The system ranks the experts by the number of times their names are associated with specific terms found in corporate documents, newsletters, communications and so forth. The user enters a key word search and the system returns the top ranked experts [Maybury, 2007]. The Expert Locator, implemented in MITRE Corporation, retrieves information from several activity spaces. It applies weights to the documents at the activity space, evidence type, and subactivity space evidence levels [D’Amore, 2008]. • NASA POPS [Grove and Schain, 2008] aggregates information from multiple databases by leveraging Resource Description Framework (RDF) as the exchange and modelling format and Semantic Web. Users can search by organisation, project, and/or competency. The system displays a list of people matching these attributes along with the contact information and social network connecting the candidate and the user. • IBM SmallBlue [Lin et al., 2008; 2009] uses outbound emails and AIM chat to analyse the social network for “who knows what and whom”. It maps search strings to keywords, identifies candidates matching these keywords and ranks the results by relevance weighting and social network structure. • INDURE FacFinder [Fang et al., 2008] collects information on faculty from university profiles, NSF awards, and faculty homepages. The system indexes each document in entirety and applies weights to the proximity of terms. It considers the order of terms, the data source, and document rank when applying weights. • StrangersRS [Guy et al., 2011] scores people based on their familiarity and similarity to one another. The sys- In day-to-day activities, people in organisations face problems and look for obtaining creative new ideas and solutions. Reducing the constraints to communication and knowledge sharing of a globally distributed workforce, will facilitate the workflow. People finder systems are one of the main solutions in such context to reduce these constraints leading to time and cost savings. Finding expertise efficiently helps organisations to unlock knowledge within the enterprise, solve problems, and identify collaborators, fostering the interaction among users with different backgrounds, opinions and levels of expertise. In this work we describe an expertise recommender system based on a fuzzy OWA operator for ranking candidates in expertise search. 1 Introduction For global organisations, finding an expert for unlocking knowledge within the enterprise, solving problems, and identifying collaborators can be challenging as experts are disperse and vary in level of knowledge of a topic. This task can become overwhelming to new employees looking for assistance, project managers looking to put together project teams, or employees looking for advice. Expertise Recommender Systems (ERS) can help people in organisations to find people who have some expertise in a specific area. In this work we describe the architecture of an ERS that will recommend people based on an appropriate mixing and an optimal matching of the characteristics of the candidates and the preferences of the user. This ERS has been developed within project COLLAGE1 , a European sponsored enterprise social network implementation. 2 State of the art ERS, also called Expert Finding Systems (EFS), Expertise Location Systems (ELS) [Maybury, 2007], or expertise retrieval, connect people to areas of expertise [Balog et al., 2012]. To date, several ERSs have been developed. They focus on finding the expert with the “right level of expertise” 1 http://projectcollage.eu 14 • Subskill or quality variables describe knowledge not directly related with the areas of knowledge included in the previous type of variables. These variable may differ according to the environment in with the ERS is being applied. In this work, we have considered specific tools that the candidate knows. tem recommends people with similar interests but are unfamiliar with each other. Some of the analysed systems take into account more information than just the expertise of the candidates. However, this information is not treated in the most effective way: in some cases, it is just used to filter the recommendations; in other cases, this information is aggregated by means of a weighted mean, requiring the user to define a set of parameters. Both approaches could result in a candidate being prematurely discarded due to one of the considered criteria, while meeting most of the requirements of the user with high scores. This work describes a system to recommend people by taking into account simultaneously not only the expertise of the candidates but other relevant features. The system allows the user to select the requirements that best fit his/her interests. The recommendation is based on the user’s inputted information, and allows him/her to select among the recommended experts from a generated ranking. 3 • Proximity information is used to measure the distance between the user and the candidate, that is to say, the ease of contact. This can be done by taking into account the physical distance between the users or by considering the logical distance between the departments or institutions of the implied users, always depending on the considered use case. In this paper, we have stored the relationship between departments in form of graph and computed the distance among them in terms on the distance between their corresponding nodes. • Availability variable informs the current availability of the candidate. A system for managing the availability of each candidate must be designed. We have decided to develop a system in which the initial availability of the candidate is set by the own candidate with a maximum one by default. The availability is decreased when a task is assigned to a candidate and it trends to the maximum level with the time. Architecture The ER system introduced in this work is a content-based recommendation system based on the definition of candidates’ profiles and the user’s preferences when asking for a recommendation. The user can take advantage of this system to know who “is good at what” (expertise) while also fulfilling his/her other requirements such as experts’ subskills, proximity to the user and current availability. Once the possible experts are selected, the system returns an ordered list ranked according to the user’s preferences. As displayed in Figure 1, the ER system can be considered as an adaptation of the architecture ER-Arch for expertise recommender systems introduced by McDonald and Ackerman [McDonald and Ackerman, 2000]. Based on the mentioned architecture, the ERS is based on four modules: profiling, identification, selection and interaction. 3.2 Identification module The Identification module builds an initial list of candidates feasible to be recommended. The definition of feasibility can vary depending on the use case of application. In this work, we have decided to remove candidates with no availability (currently set to “do not disturb”). 3.3 Selection module The Selection module is technically the more complex of the described modules. It is responsible for analysing and ranking the list of initial candidates. This module consists of the following tasks: 1. Assessing each candidate according to the user’s requirements. Each requirement set by the user must be evaluated on the profile of each candidate. The assessment of such variables is computed in the interval [0, 1] in terms of the distance between the required item and the profile of the candidate, assessing a maximum value when the required item is fully fulfilled. Expertise and Subskill requirements are represented by the name of the skill, being required expertise associated with the required level. The assessment of a required skill s is defined as follows: 3.1 Profiling module The Profiling module is responsible for building and maintaining profiles to be used in the recommendation process. Therefore, the main responsibility of this module is to translate data collected from the environment in which the system is embedded into candidates profiles. Four types of variables have been considered to characterise the profile of each candidate: • Expertise variables represent the areas of knowledge of the candidate useful to solve a problem or to answer to a enquiry. This information can be considered both in an explicit or an implicit way. In this work, collecting explicit expertise is related to the manual selection of topics that the candidate knows best. This can be stated by the own candidate or by other people. On the other hand, the collection of implicit information implies analysing documents internal or external to the enterprise to find key words. The work presented in this paper employs a predefined list of skills. min(ps , l) , (1) l where ps is the level of expertise of a candidate in skill s and l is the level of expertise required for skill s. When computing the assessment for a required subskill s, only the existance of that skill is taken into account: Ae (ps , l) = Aq (ps ) = ps , 15 (2) Figure 1: Architecture of the ERS developed where ps is 1 if the candidate has the subskill s and 0 if not. Proximity requirement can be stated by the user to be high or low. Given the distance pd between the institutions of the candidate and the user, its assessment is computed as follows: ated with the OWA operator. The objective of the aggregation step is to combine a set of criteria in such a way that the final aggregation output takes all the single criteria into account [Dubois and Prade, 1985]. pd −md Md −md pd −md Md −md 1− if high proximity is required, otherwise, (3) where md and Md stand for the minimum and maximum distance between all institutions, used to normalise the input distance. Finally, a maximum availability is always required an therefore its computation is as follows: Ap (pd ) = Aa (pa ) = pa , (4) where pa is the current availability of the candidate. 2. Aggregating the assessments into an overall degree. The ERS presented in this work employs an average operator to aggregate, for each candidate, the partial assessments obtained by analysing each requirement. A lot of families of aggregation operators have been studied. Among them, the OWA operator proposed by Yager [Yager, 1988] is the most widely used. One of the main reasons to support this extensive use is that the OWA operator allows the implementation of the concept of fuzzy majority in the aggregation phase by means of a fuzzy linguistic quantifier [Zadeh, 1983], which indicates the proportion of satisfied criteria ‘necessary for a good solution’ [Yager, 1996]. This is done by using the linguistic quantifier in the computation of the weights associ- Definition 1 An OWA operator of dimension n is a mapping Φ : Rn → R, which has a set of weights W = T (w Pn1 , . . . , wn ) associated with it so that w ∈ [0, 1] and i=1 wi = 1, n X Φ(a1 , . . . , an ) = wi · aσ(i) , (5) i=1 where σ is a permutation function such that aσ(i) is the i-th highest value in the set {a1 , . . . , an }. Definition 2 Given a function Q : [0, 1] → [0, 1] such that Q(0) = 0, Q(1) = 1 and if x > y then Q(x) ≥ Q(y), an OWA aggregation operator guided by Q is given as [Yager, 1988]: n X Φ(a1 , . . . , an ) = wi · aσ(i) , (6) i=1 being σ : {1, . . . , n} → {1, . . . , n} a permutation such that aσ(i) ≥ aσ(i+1) , ∀i = 1, . . . , n − 1, i.e., aσ(i) is the i-th largest value in the set {a1 , . . . , an }; and i i−1 wi = Q −Q , i = 1, . . . , n. (7) n n That is to say, the computation of the weights W to be used in the aggregation by means of the OWA operator is guided by the fuzzy linguistic quantifier ‘most of’ represented via a Regular Increasing Monotone (RIM) function Q. In most cases, the function considered will be: Q(r) = r1/2 . 16 3. Ranking and selecting candidates. The considered candidates are ranked according to the overall degree obtained from the previous task. 3.4 trieval. Foundations and Trends in Information Retrieval, 6(2-3):127–256, 2012. [D’Amore, 2008] Raymond J D’Amore. Expert finding in disparate environments. PhD thesis, University of Sheffield, 2008. [Dubois and Prade, 1985] Didier Dubois and Henri Prade. A review of fuzzy set aggregation connectives. Information sciences, 36(1):85–121, 1985. [Fang et al., 2008] Yi Fang, Luo Si, and Aditya Mathur. FacFinder: Search for Expertise in Academic Institutions. Technical Report SERC-TR-294, Department of Computer Science, Purdue University, 2008. [Grove and Schain, 2008] Michael Grove and Andrew Schain. POPS – NASA’s expertise location service powered by semantic web technologies. http://www.w3.org/2001/sw/sweo/public/UseCases/Nasa/, February 2008. accessed February 6, 2015. [Guy et al., 2011] Ido Guy, Sigalit Ur, Inbal Ronen, Adam Perer, and Michal Jacovi. Do you want to know?: recommending strangers in the enterprise. In Proceedings of the ACM 2011 conference on Computer supported cooperative work, pages 285–294. ACM, 2011. [Lin et al., 2008] Ching-Yung Lin, Kate Ehrlich, Vicky Griffiths-Fisher, and Christopher Desforges. Smallblue: People mining for expertise search. MultiMedia, IEEE, 15(1):78–84, 2008. [Lin et al., 2009] Ching-Yung Lin, Nan Cao, Shi Xia Liu, Spiros Papadimitriou, Jimeng Sun, and Xifeng Yan. Smallblue: Social network analysis for expertise search and collective intelligence. In IEEE 25th International Conference on Data Engineering, 2009. ICDE’09, pages 1483–1486. IEEE, 2009. [Mattox et al., 1999] David Mattox, Mark T. Maybury, and Daryl Morey. Enterprise expert and knowledge discovery. In Hans-Jrg Bullinger and Jrgen Ziegler, editors, HCI (2), pages 303–307. Lawrence Erlbaum, 1999. [Maybury, 2007] Mark T Maybury. Discovering distributed expertise. Regarding the “Intelligence” in Distributed Intelligent Systems MITRE, 2007. [McDonald and Ackerman, 2000] David W. McDonald and Mark S. Ackerman. Expertise recommender: a flexible recommendation system and architecture. In Proceedings of the 2000 ACM conference on Computer supported cooperative work, pages 231–240. ACM, 2000. [Yager, 1988] Ronald R Yager. On ordered weighted averaging aggregation operators in multicriteria decisionmaking. Systems, Man and Cybernetics, IEEE Transactions on, 18(1):183–190, 1988. [Yager, 1996] Ronald R Yager. Quantifier guided aggregation using OWA operators. International Journal of Intelligent Systems, 11(1):49–73, 1996. [Zadeh, 1983] Lotfi A Zadeh. A computational approach to fuzzy quantifiers in natural languages. Computers & Mathematics with Applications, 9(1):149–184, 1983. Interaction module The Interaction module provides the user with the necessary tools to define the recommendation requirements. The main task of this module is to translate the request made by the user to specific requirements understandable by the ERS. Firstly, expertise and subskill requirements are collected in the same way. If the user explicitly chooses which expertise or subskills are required, the system will create directly a requirement for each of them. Otherwise, if the user asks the system to get a recommendation with the same expertise or subskills as him/her, the system must analyse the profile of the user and take note of his/her expertise or subskills. Secondly, the user can select if s/he prefers recommendations of people close to or far from his/her department or institution. S/he can also disable this item in the case of not caring about the proximity of the candidates. In the first case, the distance between the candidate and the user is analysed by considering the graphs (both social network and departments’ graph). Conversely, the second one considers the inverse distance as people far away have low proximity. Finally, availability is always set as one of the requirements and it is preferred to be high. 4 Conclusion and Future Research The ERS presented in this work focuses on finding “the right person” that will provide the user not only with the right level of expertise but also with the right fit of his/her needs. This work details the architecture of such ERS by describing all modules that are part of the system. The ERS developed carries out the recommendation by requesting the user a minimum set of inputs enhancing its usability. The proposed variables to describe a candidate in this context are derived from literature on expertise recommender systems. However, it should be recognised that there may be additional variables related to specific use cases and to their availability which can further enhance matching between user requirements and characteristics of the recommended candidates. Future research may include studies of different use cases to define for each one the proper set of variables to use. Moreover, a new user interface is being designed to improve its usability and readability of the results. Acknowledgements The research reported in this paper is partially supported by the SENSORIAL Research Project (TIN2010-20966-C0201), funded by the Spanish Ministry of Science and Information Technology and by the European Commission funded project COLLAGE: Creativity in Learning through Social Computing and Game Mechanics in the Enterprise, (GA318536) 2012-15. References [Balog et al., 2012] Krisztian Balog, Yi Fang, Maarten de Rijke, Pavel Serdyukov, and Luo Si. Expertise re- 17 Tracking infrastructure for large crowd movement Andreas Eberlei1, Manuel Herzberg1, Jonas Kaltenbach1, Dominik Ringgeler1, Patrick Datko1, Wilhelm D. Scherz1, Tatjana Thimm2 and Ralf Seepold1 HTWG Konstanz 1 Faculty of Computer Science, 2Faculty of Economics and Social Sciences Brauneggerstr. 55, 78462 Konstanz (Germany) [email protected] quantitative movement data is collected and via surveys Abstract qualitative results will complement the quantitative approach. The following research questions derived from literature review and website analysis: • What are the movement patterns of tourists at Lake Constance? • Is there a correlation between movement patterns and duration of stay? • Is there a correlation between movement patterns and weather conditions or special days, holidays or different seasons? • Are there differences between movement patterns from tourists of different ages and gender? • What are the most used means of transportation, which tourists use to get around? • What are the consequences for the development of tourism offers or packages? Recognizing and understanding movement patterns from tourists is very important for big cities and holiday destinations. Analyzing this movement patterns can yield to important knowledge for the tourism management experts. Understanding these different movement patterns is a difficult task. For this reason the demand for an infrastructure, which is able to record and process this movement data, is very high. In the following paper we describe our approach for a system implementation which is able to collect movement data from a large amount of tourists and it is able to create, visualize and analyze different movement patterns. Keywords, Tracking, logging, grouping 1 Motivation Understanding how tourists travel is a difficult challenge. Tourism includes the movement of different people through time and space [McKercher et al., 2006]. One big major aspect of tourism is to examine activities of different tourists in relation to our environment, weather conditions and other aspects. Each tourist has a different behavior how he explores and moves to different destinations. This fact results in different movement patterns for each individual tourist [Lau and McKercher, 2006]. Movement patterns can be defined as dimensional changes of location of tourists under certain influences [Leung et al., 2012]. The analysis of these movement patterns includes information, which can help getting a better understanding of touristic movement behaviors. With this information it is possible to create better travel guides and other strategies for tourists. The knowledge how tourists move through different areas has a significant influence for managing public transportation and infrastructure and traffic forecasting, planning of new attractions, restaurants and shopping facilities [Leung et al., 2012]. Based on these facts the demand for an infrastructure which is able to track movements of large crowds is very high. 2 3 State of the art Tracking the paths of tourists and all of the technological background that is there has been a popular as well as promising area of research for more than a decade now. Older works in this field of study have been created in 2004 and 2005 for example [O’Conner et al. 2005] or [Pavón et al. 2004]. While in this time definitely important steps were made, the last years included many new technological as well as social developments, which influenced this field of research and offered it new and attractive possibilities [Weber & Bauder 2012]. As a result, the development and increased usage of smartphones made it possible to track the routes of tourists more precise- and consistently [Edwards et al. 2010]. Hence, detectors and cameras for example have been replaced, since they are more circular and less detailed. While tracking the movement patterns of tourists primarily has been researched in urban areas, such as Paris [Bauder et al. 2014] or Hong Kong [Shoval et al. 2011], there are also works that focus on travel destinations of tourists within a certain recreation area. These works can help managers of that field to better understand tourist movement patterns and thus allocate more Objectives In our project we combine a quantitative and a qualitative approach. Via the Android application and GPS tracker 18 efficiently there resources, e.g. planning the road network, etc. [Smallwood et al., 2012]. In this research, we want to focus our studies on the Lake Constance area, in Baden-Württemberg, Germany. There are already several mobile applications available to track travel data. Open GPS Tracker1 can track your data and also draw them in real time using services like Google Maps. A mobile Android Application called GeoTracker2 makes it possible to share traveled routes with your friends. While there are multiple possibilities to track your route using an Android application, we think that none of these unites the key elements that we would like to use: At first, it is important to incorporate many users, hence we like to provide an alternative to the Android application. As of this we also use hardware GPS trackers for those, who are non-tech-savvy. Additionally, we do not only make the travel route available on screen, but also create the possibility to automatically distinguish several methods of traveling, e.g. by car or by bike. To reach an adequate amount of users, it is important to make the application as attractive as possible. To achieve this goal we implement additional features, like travel diaries. Finally, providing a web application, that represents and lets us analyze all of the travel data collected, will help us developing cluster-/heat maps presenting spots being visited most. With these data we can provide users with new features, like ‘hot spots’ in cities, where many people meet or certain events take place, but also calm areas, which could be visited for recreation. 4 store GPS data in raw format. The existing infrastructure can handle these data format well. Movement data from the GPS tracker can manually be imported into the database. Figure 1 illustrates our infrastructure. In the backend area of the infrastructure we analyze the Figure 1: Tracking infrastructure recorded movement data. We use a web service to visualize traveled routes of tourists. Routes are displayed on a map, depending on the mean of transportation, which the tourist has chosen, routes are dyed differently. The web service is also responsible for displaying information to individual tourists. Tourism management experts are able to filter the recorded movement data. There are several filter options, for example age or chosen mean of transportation. After applying these filter the map shows only the appropriate tracks. Methodology In our infrastructure we track movement data from different tourists using a smartphone application and hardware GPS trackers. Movement data is stored on a server where tourism management experts can analyze them. The following section describes the methodology used. 4.2 Tourist Tracking The project combines a quantitative and a qualitative approach. Via app and loggers quantitative data is collected and via the survey qualitative results will complement the quantitative approach. Thus the methodology follows the concept of triangulation of methods and data simultaneously. 4.1 Technology platform The developed tracking application works on Android smartphones and is responsible for several tasks: The primary task is to record the movement from the tourists, furthermore the app includes several helpful features for the user. After registration, the tourist is able to use our application. Tourists can choose their mean of transportation they are currently using. Also tourists can search hotels, restaurants and other points of interests. They can create travel diaries and they are able to access helpful information from the Lake Constance area. Next to the Android application tracking method, hardware GPS tracker can be used to capture movements of tourists. GPS tracker can be assigned to tourist during their stay at the Lake Constance Area. These trackers are easy to use and are able to record the movement all day long. These GPS trackers 1 5 Intermediate Results During the current period of time several goals were achieved. The development of the tracking application is finished. The application is able to track movements and is able to send these information to the server. The application also includes all features we described in chapter 4. A basic server infrastructure is already developed as well. It includes the web service and the database where all information is stored. The web service is capable to display information of tourists, which use our application and it is possible to visualize the covered routes from each tourist on a map. Furthermore, several basic filters can be applied to the recorded movement 2 https://play.google.com/store/apps/developer?id= Ilya+Bogdanovich&hl=en http://opengpstracker.org 19 data. The described GPS trackers from chapter 4 are functional and are ready to be integrated in the existing infrastructure. 6 Conclusion At the current point of time in the project, all milestones have been achieved and all functionality, which has been planned so far were integrated. Tracking movement patterns of tourists has been researched for many years, often times the approaches made, considered special circumstances though, as tracking travel routes in a national park for example [Smallwood et al., 2012]. In our work we go for a more general approach by developing an Android application, which offers us a wide range of users. The server infrastructure and the possibility to select among different means of transportation has been implemented as well. Furthermore, the web interface for access to the backbone server is available and yet provides different kinds of data filtering. Although our work proceeds constantly, many interesting objectives will be achieved in the future. 7 Figure 2: Clustering with OPTICS algorithm [Ankerst et al., 1999] References [Ankerst et al., 1999] Mihael Ankerst, Markus M. Breunig, Hans-Peter Kriegel, and Jörg Sande, OPTICS: ordering points to identify the clustering structure, SIGMOD Rec. 28, Pages 49-60, 2 June 1999, http://doi.acm.org/10.1145/304181.304187 [Asakura and Hato, 2004] Yasuo Asakura, Eiji Hato, Tracking survey for individual travel behavior using mobile communication instruments. Transportation Research Part C: Emerging Technologies, Volume 12, Issues 3–4, Pages 273-291, ISSN0968-090X, June– August 2004, http://dx.doi.org/10.1016/j.trc.2004.07.010 Future Work In our future work we want to focus more on the backend related tasks. Enrich our server infrastructures with more useful features is our main goal, which will also be a benefit for the end users and tourism management experts. Making the GPS tracker data also available for the server application is one of these aspects. To be able to draw conclusions from the visualization in the web interface of the collected movement data, we want to provide several filtering options. For example, differing the movement patterns considering different seasons could be very useful. Or even more fine grained filters to only visualize movements in a certain period of time, e.g. holidays can be beneficial in many ways. Since tracking routes can differ immensely with the weather situation, filtering movement only with sunny or stormy weather can help of better understanding the movements in its entirety. One of our key tasks of the future work will be the implementation of so called ‘heat maps’. That means, we want to visualize spots in the web interface: show areas with a high density of people. Considering the implementation of these maps, we need to use certain techniques of clustering. Basically, that means collecting a high amount of GPS coordinates and summarizing those who are close to each other, into one cluster. To be able to do this we will be using certain techniques already developed, called the ‘OPTICS’ algorithm. While essentially, this algorithm implements in fact the clustering of the given coordinates, it can even implement more features. As seen in figure 2 the ‘OPTICS’ algorithm also can use different density parameters for certain sub areas. This can be useful, e.g. by computing clusters in an urban area, as well as in rural environments. [Bauder et al., 2014] Michael Bauder, Tim Freytag, Marie Gérardot, Exploring tourist mobility in Paris. A combined visitor survey and GPS tracking study, EspacesTemps.net, Objects, 17.02.2014, http://www.espacestemps.net/en/articles/analyserlesmobilites-touristiques-a-paris-en-combinantenquetevisiteurs-et-gps [Edwards et al., 2010] Deborah Edwards, Tracey Dickson, Tony Griffin, Bruce Hayllar, Tracking the Urban Visitor: Methods for Examining Tourists’ Spatial Behaviour and Visual Representations, Cultural tourism research methods, Pages 104-115, 2010, ISBN 9781845935184, http://dx.doi.org/10.1079/9781845935184.0000 [Lau and McKercher, 2006] Gigi Lau, Bob McKercher, Understanding Tourist Movement Patterns in a Destination: A GIS Approach. Tourism and Hospitality Research, Volume 7 No. 1, Pages 39-49, November 2006, http://dx.doi.org/10.1057/palgrave.thr.6050027 [Leung et al., 2012] Xi Yu Leung, Fang Wang, Bihu Wu, Billy Bai, Kurt A. Stahura, Zhihua Xie, A Social Network Analysis of Overseas Tourist Movement Patterns in Beijing: the Impact of the Olympic Games. 20 INTERNATIONAL JOURNAL OF TOURISM RESEARCH, Volume 14, Pages 469–484, 2012, dx.doi.org/dx.doi.org/10.1002/jtr.876 [McKercher et al., 2006] Bob McKercher, Celia Wong, Gigi Lau. How tourists consume a destination. Journal of Business Research, Volume 59, Issue 5, Pages 647-652, May 2006, ISSN 0148-2963, http://dx.doi.org/10.1016/j.jbusres.2006.01.009 [O’Conner et al. 2005] A. O’Connor, A. Zerger, B. Itami, Geo-temporal tracking and analysis of tourist movement, Mathematics and Computers in Simulation, Volume 69, Issues 1–2, Pages 135-150, 20 June 2005, ISSN 03784754, http://dx.doi.org/10.1016/j.matcom.2005.02.036 [Pavón et al., 2004] Juan Pavón , Juan M. Corchado , Jorge J. Gómez-Sanz , and Luis F. Castillo Ossa, Mobile Tourist Guide Services with Software Agents, Mobility Aware Technologies and Applications, Lecture Notes in Computer Science, Volume 3284, Pages 322-330, 2014, http://dx.doi.org/10.1007/978-3-540-30178-3_31 [Shoval et al. 2011] Noam Shoval, Bob McKercher, Erica Ng, Amit Birenboim, Hotel location and tourist activity in cities, Annals of Tourism Research, Volume 38, Issue 4, Pages 1594-1612, October 2011, ISSN 0160-7383, http://dx.doi.org/10.1016 [Smallwood et al., 2012] Claire B. Smallwood, Lynnath E. Beckley, Susan A. Moore, An analysis of visitor movement patterns using travel networks in a large marine park, north-western Australia, Tourism Management, Volume 33, Issue 3, Pages 517-528, June 2012, ISSN 0261-5177, http://dx.doi.org/10.1016/j.tourman.2011.06.001 [Weber and Bauder 2012] Hans-Jörg L. Weber, Michael Bauder, Neue Methoden der Mobilitätsanalyse: Die Verbindung von GPS-Tracking mit quantitativen und qualitativen Methoden im Kontext des Tourismus, Raumforschung und Raumordnung, Volume 71, Issue 2, Pages 99-113, April 2013, http://dx.doi.org/10.1007/s13147013-0218-y 21 ENGAGE: an Evidence-based Model of Engagement for Dementia Giulia Perugia Universitat Politècnica de Catalunya Technical Research Centre for Dependency Care and Autonomous Living Neapolis Building, Rambla de l'Exposició, 59-69 08800 Vilanova i la Geltrú. Barcelona. Spain [email protected] Marta Díaz Boladeras Universitat Politècnica de Catalunya Technical Research Centre for Dependency Care and Autonomous Living Neapolis Building, Rambla de l'Exposició, 59-69 08800 Vilanova i la Geltrú. Barcelona. Spain [email protected] Andreu Català Mallofré Universitat Politècnica de Catalunya Technical Research Centre for Dependency Care and Autonomous Living Neapolis Building, Rambla de l'Exposició, 59-69 08800 Vilanova i la Geltrú. Barcelona. Spain [email protected] Abstract based on Csikszentmihaly’s theory of flow and Tickle-Degnen and Rosenthal’s theory of rapport. The increasingly ageing society is pushing scientists to find solutions to issues posed by enormously widespread diseases related to senescence. It is particularly dementia that is seen as an urgent problem to stem. Dementia is a neurodegenerative disorder that impairs functioning, cognition, mood and behaviour. The importance of non-pharmacological treatments to improve the Quality of Life of people with dementia is a matter of fact for practitioners. Nonetheless, given the lack of appropriate tools to evaluate the outcomes of these treatments, their success is only rarely demonstrated. This issue gets along with another problem that gaming technologies for dementia (e.g. Serious Games) are facing, the need to evaluate their interactive effectiveness according to an appropriate rationale. We propose to use engagement as a unit of measure to evaluate the success of both nonpharmacological treatments and gaming technologies for dementia. Engagement is a complex psychological state in which resources are mobilised to achieve a goal for intrinsic motives. Within this position paper, we present the state of the art on engagement and propose a definition of engagement for dementia 1 Introduction Dementia is a neurodegenerative disorder that causes people to progressively lose their reasoning and planning abilities, producing cognitive (mnemonic, linguistic, attentional) and functional impairment (i.e. inability to dress and care for themselves), but also affecting orientation in time and space, mood and behaviour. Indeed, dementia brings about several disorders [Cummings et al., 1994], just to cite the commonest: apathy, depression, agitation and anxiety [Robert et al., 2005]. Juxtaposed to this condition, as body ages, mobility gets constrained and perceptual abilities (e.g. sight, hearing) greatly reduce. The pervasive reduction of mobility and cognition, the sense of loss of oneself and of reference points, the inability to carry out activities of daily living and to function independently constitute the basic condition of dementia and contribute consistently in damaging Quality of Life (QoL). In such context, engagement becomes crucial. Indeed, being engaged in something meaningful and rewarding, appropriate for a person’s cognitive level and motor resources, could improve psychological wellbeing [Hutson et al., 2011] and augment self-esteem [Benveniste et al., 2012], thus enhancing QoL [Banerjee et al., 2006]. 22 2 To better express this concept of sociality, we borrowed the notion of rapport [Tickle-Degnen and Rosenthal, 1990]. Rapport is the main condition for a good social interaction. In more detail, it is ‘the dynamic structure of three interrelating components: mutual attentiveness, positivity and coordination’. If Csikszentmihaly’s flow is mainly an experiential concept, Tickle-Degnen and Rosenthal's rapport is also a behavioural construct. Indeed, Tickle-Degnen and Rosenthal described specific non-verbal correlates for rapport, such as head nodding, eye-contact, mutual gaze, postural mirroring, turntaking cues and interactional synchrony. Our intention is to study engagement in dementia through a triangulation of behavioural, experiential and physiological measurements. Thus, adding further levels of knowledge to the notions of flow and rapport. Research goals The effectiveness of non-pharmacological treatments for dementia is far from being conclusive. Indeed, albeit nonpharmacological treatments are deemed useful, several Cochrane reviews report that their success is only rarely demonstrated [Forbes et al., 2013; Vink and Birks, 2013]. This is mainly due to the wrong outcome measurements chosen. Indeed, quite often cognitive and diagnostic assessment tools (e.g. Mini-Mental State Examination, Neuropsychiatric Inventory) are used to gauge the success of non-pharmacological treatments and the use of such measurements presupposes non-pharmacological treatments to have a range of action they actually do not have. The newborn business of gaming technologies for people with dementia (e.g. Serious Games for Dementia - SG4D) is facing more or less the same problem. Even in the field of gaming technologies, where the use of the engagement rationale to judge success is pervasive, when it comes to dementia, a mix of non-specified behavioural measures, cognitive assessment and time spent on the game is used to evaluate involvement [McCallum and Boletsis, 2013]. We would like to measure the success of nonpharmacological treatments and gaming technologies for people with dementia through the amount of engagement they elicit, thus collocating their outcomes within the scope of psychological wellbeing [Kitwood and Bredin, 1992]. A robust tool able to measure the engagement state of a person with dementia could be crucial to demonstrate the success of non-pharmacological treatments and helpful in customising care and entertainment according to each individual’s preferences. 3 4 Engagement defined An Observational Model of Engagement (OME) in dementia has been developed by Cohen-Mansfield et al. [2010 and 2011]; engagement is here described as ‘the act of being occupied or involved with an external stimulus’ and is measured through four outcome variables (duration, attention, attitude and refusal) referred to the behaviour of an older adult with dementia with respect to a set of stimuli he is presented with (e.g. live human social stimuli, simulated social stimuli). The OME is interesting and provided with psychometric validity, what we argue is the decontextualised use of stimuli, which does not attain to the reality of care facilities. We would like to promote a different concept of engagement for dementia, which is of a complex psychological state in which human resources (cognitive, physical, emotional, social) are mobilised and run after an objective that one wants to attain for pure enjoyment. Engagement is a state where tiredness is hardly perceived since what is being done is meaningful and rewarding. This concept of engagement is context-dependent and multilayered. Indeed, it is passible of understanding only in the context of its appearance (e.g. non-pharmacological treatments) and it is made of different levels of comprehension (physiological, emotional, social, etc.) that express themselves only sometimes through observable behavioural features. Theoretical framework The most famous theory about engagement is Csikszentmihaly’s theory of flow. The term flow refers to the way interviewees named the experience of being positively immersed in engaging activities [Nakamura and Csikszentmihaly, 2002]. The flow state is described as composed by a series of features: an intense and focused concentration, the union of awareness and action, the loss of self-consciousness, the feeling of being in control of one’s own actions, the distortion of temporal axis and the perception of an activity as intrinsically rewarding. Csikszentmihaly’s flow have been successively integrated in the concept of optimal experience [Csikszentmihaly and LeFevre, 1989]. An optimal experience occurs when the opportunities for action and the skills in the situation are very high, in such circumstances, the quality of experience is likely to be very positive. Csikszentmihaly’s theory provides a nice and well-defined conceptual framework for engagement and we have borrowed plenty of notions from it. Nevertheless, what we lack here is a dimension of sociality which is crucial when it comes to dementia. Indeed, we conceive engagement as a shared experience of communication and reciprocal support. 5 Related work A first attempt to implement the features of a psychosocial model of engagement on technologies has been done by Sidner et al. [2005]. Sidner et al. described engagement as ‘the process by which two (or more) participants maintain and end their perceived connection during interactions they jointly undertake’. They studied human-human facial tracking and implemented two gaze behaviours (i.e. mutual facial gaze and directed gaze) on a penguin robot named Mel. Results showed that, when gaze behaviours are present, the robot attitude is considered more natural, the 23 gaze coordination is enhanced and the interaction time augments. Rich et al. [2010] conceived perceived connection in human-human interaction as behaviourally embodied in Directed Gaze, Mutual Facial Gaze, Adjacency Pair (e.g. question-answer) and Backchannel (feedbacks to signal message reception). They successfully implemented these behavioural gestures in the human-robot architecture, enabling the robot to recognise human engagement through gaze, head nods, head shakes and pointing gestures and to return a coherent behavioural feedback to the human using the same set of gestures. In the field of Human-Computer Interaction, BianchiBerthouze 2008] produced a model of the relationship between body movement and quality of engagement. Bianchi-Berthouze borrowed Lazzaro’s definition of engagement [2004] and considered engagement as a composite of hard fun and easy fun, emotional (altered state) and social experiences (person factor). Testing different computer-games, based on different interactive modalities, Bianchi-Berthouze noticed that, when engagement arises, different movement patterns show up. For instance, when participants were asked to play Guitar hero in a dual-pad controller condition, just using features of the game they could control by hands, several expressions of frustrations appeared when committing a mistake. On the contrary, when participants were told how to use the tilt sensor in the neck of the guitar to play the game, guitar-like player movements and expressions of excitement emerged. Similarly to these works, we would like to study engagement as a psychological state with behavioural, experiential and physiological correlates to inform nonpharmacological treatments, gaming technologies and technology-based activities in the form of guidelines for design intervention, online recognition of behavioural and physiological patterns and interaction strategies. towards activity, facial expressions), experiential (self- and expert estimations) and physiological measures (Skin Conductance Level and Mean Motor Activity measured through actigraphy). The enlisted physiological measures were chosen since there is promising evidence on the ability of skin conductance levels to capture affective valence and arousal and of actigraphy to grasp motivational states in dementia [Treush et al., 2015; David et al., 2012; Kuhlmei et al., 2013]. In this context, our main research questions are: ‘Which are the behavioural correlates of engagement in dementia?’, ‘Which are the physiological correlates of engagement in dementia patients? Can we identify patterns of arousal (SCL) and motor activity (Actigraphy) during engagement states?’ and ‘Are these physiological patterns consistent with behavioural ones?’ 7 Conclusions Within this position paper, we have presented a first approximation to an evidence-based model of engagement for dementia. At the beginning, we have proposed two possible areas of application of the model: nonpharmacological treatments evaluation and technologybased gaming activities design. Successively, we have exposed the related work in both HRI and HCI. We have then shed a light on our definition of engagement and described its theoretical framework, Csikszentmihaly’s theory of flow and Tickle-Degnen and Rosenthal’s theory of rapport. At the end of the paper, we have given an overview of the triangulation of measurements we are going to use to produce an evidence-based model of engagement and we have exposed the research questions we would like to reply to. The model we will build will be used to design new interventions and new technologies for users with dementia, to adapt online the behaviour of interactive technologies according to specific behavioural and physiological states of the user and to evaluate the quality of the interactive experience. 6 Research questions In 2012, the special session ‘Measuring Engagement: Affective and Social Cues in Interactive Media’ was set up within the yearly conference ‘Measuring Behaviour’ openly exposing the importance of understanding engagement for the design of interactive media. In this context, the research questions posed were ‘How can we design and predict engagement?’, ‘How can we adapt a game to its users and audience to increase and decrease engagement?’. A focus was put on the idea that sensors could be thought of as providers of input modalities for interaction (e.g. postures, gestures, body movements, facial expressions and brain activity). In line with this, but with some limitations due our target profile we are willing to work with, we are going to use a triangulation of measures to gain an insight of the engagement state of the person with dementia within a certain activity (non-pharmacological treatments and technology-based activities). We selected behavioural (e.g. postures, proxemics, attitude towards people, attitude Acknowledgments This work was supported in part by the Erasmus Mundus Joint Doctorate (EMJD) in Interactive and Cognitive Environments (ICE), which is funded by Erasmus Mundus under the FPA no. 2010-2012. References [Banerjee et al., 2006] Banerjee, S., Smith, S. C., Lamping, D. L., Harwood, R. H., Foley, B., Smith, P., Murray, J., et al. (2006). Quality of life in dementia: more than just cognition. An analysis of associations with quality of life in dementia. Journal of neurology, neurosurgery and psychiatry, 77(2), 146-148. [Benveniste et al., 2012] Benveniste, S., Jouvelot, P., Pin, B., & Péquignot, R. (2012). The MINWii project: 24 Renarcissization of patients suffering from Alzheimer’s disease through video game-based music therapy. Entertainment Computing, 3(4), 111-120. [McCallum and Boletsis, 2013] McCallum, S., & Boletsis, C. (2013). Dementia Games: a literature review of dementia-related Serious Games. In Serious Games Development and Applications (pp. 15-27). Springer Berlin Heidelberg. [Bianchi-Berthouze, 2008] Bianchi-Berthouze, N. (2008). Body movement as a means to modulate engagement in computer games. In Proc. Workshop on Whole Body Interaction, HCI (Vol. 8). [Nakamura and Csikszentmihalyi, 2002] Nakamura, J., & Csikszentmihalyi, M. (2002). The concept of flow. The handbook of positive psychology, 89-105. [Cohen-Mansfield et al., 2009] Cohen-Mansfield, J., Dakheel-Ali, M., & Marx, M. S. (2009). Engagement in persons with dementia: the concept and its measurement. The American journal of geriatric psychiatry : official journal of the American Association for Geriatric Psychiatry, 17(4), 299-307. [Rich et al., 2010] Rich, C., Ponsler, B., Holroyd, a, & Sidner, C. L. (2010). Recognizing engagement in human-robot interaction. Human-Robot Interaction (HRI), 2010 5th ACM/IEEE International Conference on, 375-382. [Cohen-Mansfield et al., 2011] Cohen-Mansfield, J., Marx, M. S., Freedman, L. S., Murad, H., Regier, N. G., Thein, K., & Dakheel-Ali, M. (2011). The Comprehensive Process Model of Engagement. American Journal of Geriatric Psychiatry. [Robert et al., 2005] Robert, P. H., Verhey, F. R., Byrne, E. J., Hurt, C., De Deyn, P. P., Nobili, F. et al. Grouping for behavioral and psychological symptoms in dementia: clinical and biological aspects. Consensus paper of the European Alzheimer disease consortium. European Psychiatry.2005;20(7):490–496. [Csikszentmihalyi and LeFevre, 1989] Csikszentmihalyi, M., & Lefevre, J. (1989). Optimal Experience in Work and Leisure. Journal of Personality and Social Psychology, 56(5), 815-822. [Sidner et al., 2005] Sidner, C. L., Lee, C., Kidd, C. D., Lesh, N., & Rich, C. (2005). Explorations in engagement for humans and robots. Artificial Intelligence, 166(1-2), 140-164. [Cummings et al., 1994] Cummings, J. L., Mega, M., Gray, K., Rosenberg-Thompson, S., Carusi, D. A., & Gornbein, J. (1994). The Neuropsychiatric Inventory comprehensive assessment of psychopathology in dementia. Neurology, 44(12), 2308-2308. [Tickle-Degnen and Rosenthal, 1990] Tickle-Degnen, L., & Rosenthal, R. (1990). The Nature of Rapport and Its Nonverbal Correlates. Psychological Inquiry, 1(4), 285293. [David et al., 2012] David, R., Mulin, E., Friedman, L., Le Duff, F., Cygankiewicz, E., Deschaux, O., ... & Zeitzer, J. M. (2012). Decreased daytime motor activity associated with apathy in Alzheimer disease: an actigraphic study. The American Journal of Geriatric Psychiatry, 20(9), 806-814. ISO 690. [Treush et al., 2015] Treusch, Y., Page, J., van der Luijt, C., Beciri, M., Benitez, R., Stammler, M., & Marcar, V. L. (2015). Emotional reaction in nursing home residents with dementia-associated apathy: A pilot study. Geriatric Mental Health Care. [Vink and Birks 2013] Vink, A. C., Bruinsma, M. S., & Scholten, R. J. (2003). Music therapy for people with dementia. The Cochrane Library. [Forbes et al., 2013] Forbes, D., Thiessen, E. J., Blake, C. M., Forbes, S. C., & Forbes, S. (2013). Exercise programs for people with dementia. Cochrane Database of Systematic Reviews, 12(4), CD006489. [Hutson et al., 2011] Hutson, S., Lim, S. L., Bentley, P. J., Bianchi-Berthouze, N., & Bowling, A. (2011). Investigating the suitability of social robots for the wellbeing of the elderly. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 6974 LNCS, 578-587. [Kitwood and Bredin, 1992] Kitwood, T., & Bredin, K. (1992). Towards a theory of dementia care: personhood and well-being. Ageing and society, 12(1992), 269-287. [Kuhlmei et al., 2013] Kuhlmei, A., Walther, B., Becker, T., Mueller, U., & Nikolaus, T. (2013). Actigraphic daytime activity is reduced in patients with cognitive impairment and apathy. European Psychiatry, 28(2), 94-97. [Lazzaro, 2004] Lazzaro, N. (2004). Why We Play Games: Four Keys to More Emotion Without Story. Game Developer Conference (GDC), 1-8. 25 Plataforma BREATHE de apoyo al cuidador informal: ¿Estamos preparados para el Gran Hermano? Ángel Martínez, Juan Pablo Lázaro, Isabel Martí Soluciones Tecnológicas para la Salud y el Bienestar S.A Departamento Labs {amartinez,jplazaro,imarti}@tsbtecnologias.es Resumen 1 En la actualidad, la mayor parte del cuidado a largo plazo de las personas mayores dependientes en Europa es proporcionada por los familiares de los mismos (también conocidos como cuidadores informales o cuidadores familiares). A la falta de experiencia y formación se une el hecho de que no existen herramientas específicas que reduzcan la carga de trabajo y mejoren el día a día de los cuidadores informales lo que provoca, a medio/largo plazo, un fuerte desgaste físico y emocional que se traduce en el conocido efecto del síndrome del cuidador: aislamiento social, estrés, ansiedad, agotamiento, depresión, sobrecarga, falta de autoestima y sentimiento de culpabilidad son solo algunas de las principales consecuencias de la acción prolongada de cuidar, en las personas que desempeñan el rol de cuidador principal de una persona dependiente. El objetivo del proyecto BREATHE es, en primer lugar, promover el envejecimiento activo de las personas mayores de forma que éstas puedan permanecer, si así lo desean, en su propia vivienda de forma saludable, segura e independiente el máximo tiempo que sea posible. En segundo lugar, es objetivo prioritario del proyecto BREATHE, el apoyar la toma de decisiones complejas a las que se enfrentan los cuidadores informales a diario así como combatir el aislamiento social, reducir el nivel de estrés y la carga de trabajo de los mismos por medio de una plataforma tecnológica en la nube compuesta por un sistema inteligente de AAL (Active Assisted Living) y una herramienta de gestión que propicie la toma de buenas decisiones gracias a la monitorización continuada (de forma ética, legal y preservando la dignidad y privacidad de las personas mayores) y al reconocimiento automático de actividades gracias al sistema de AAL disponible en casa de la persona en situación de dependencia. Situación de contexto En la actualidad, existen en toda Europa ciertas similitudes en lo que respecta al cuidado a largo plazo de personas mayores y/o dependientes que han sido debidamente documentadas en la bibliografía científica. De forma específica, podemos señalar las siguientes como punto de partida del Proyecto BREATHE: En Europa, el 80% del cuidado a largo plazo de las personas mayores y/o dependientes es realizado por cuidadores informales (i.e. personas sin formación específica socio-sanitaria que no reciben compensación económica alguna a pesar de que desempeñan un rol importante en el cuidado diario que se traduce en una carga considerable de trabajo) [1]. En Europa, las personas mayores y/o dependientes prefieren permanecer el mayor tiempo posible en su casa y ser cuidadas por sus familiares más cercanos [2]. En Europa, el perfil tipo de cuidador informal más común es: mujer (76%), mediana edad (+55), normalmente hija/nuera del mayor y cuya dedicación aproximada al cuidado es de 46 horas/semana durante 60 meses (5 años). Asimismo, menos de la mitad tienen la oportunidad de conciliar la vida personal con la laboral (60% en situación de desempleo) y pese a que tienen unas habilidades tecnológicas limitadas, la mayor parte de ellas sí hace un uso frecuente de Internet (fijo y móvil), dispone de uno o varios dispositivos tecnológicos en casa que usa habitualmente (ej. ordenador portátil, Tablet PC, Smartphone, etc.) y es usuaria activa de las redes sociales (ej. Facebook) y los programas de mensajería instantánea disponibles en los teléfonos móviles en la actualidad (ej. WhatsApp, etc.) [4], [5]. El cuidado a largo plazo de forma continuada entraña una serie de riesgos en la salud del propio cuidador informal como son, aislamiento social, estrés, ansiedad, depresión, pérdida de autoestima y sentimiento de culpabilidad que se traducen en 26 el conocido síndrome del cuidador (i.e. alta probabilidad de que el propio cuidador se convierta en una persona que necesite ser cuidada) [3]. 2 2.2 Sistema inteligente de AAL El sistema inteligente de AAL está compuesto por un conjunto de dispositivos tecnológicos que se instalan en casa de la persona mayor y/o en situación de dependencia con el objetivo de recoger cierta información de las actividades que realiza a diario (i.e. de forma totalmente transparente para la persona mayor puesto que ésta no tiene que accionar ningún mecanismo que arranque/garantice el buen funcionamiento del sistema ni llevar ningún dispositivo adherido al cuerpo). Asimismo, y con el fin de preservar la privacidad y garantizar la toma de decisiones de la persona que está siendo monitorizada, es parte fundamental del sistema BREATHE un dispositivo de interacción que permita a la persona mayor activar/desactivar el sistema de monitorización de forma que ésta tenga todo el control del mismo y decida cuándo y bajo qué condiciones permite al sistema recabar información acerca de las actividades que está realizando. Por tanto, el sistema inteligente de AAL que está siendo instalado en la actualidad consta de los siguientes elementos: dispositivo de interacción, set de sensores Z-Wave®, dispositivo inalámbrico de captación de imagen y elemento concentrador con capacidad de proceso y acceso al sistema de almacenamiento y procesado en la nube. Plataforma BREATHE BREATHE es una plataforma tecnológica que proporciona un guiado diario y un apoyo continuado a los cuidadores informales en el cuidado a largo plazo de las personas mayores y/o dependientes. Si bien es cierto que tradicionalmente siempre se ha tratado de poner la tecnología al servicio de las personas mayores para abordar la problemática del cuidado a largo plazo, en la actualidad existe una corriente de proyectos de investigación y soluciones comerciales que ponen el foco en el cuidador informal y no tanto en la persona que precisa ser cuidada [2]. BREATHE cree firmemente en esta filosofía de trabajo puesto que entiende que una mejor formación, así como una reducción en el nivel de estrés, saturación y carga de trabajo del cuidador informal repercutirán de forma positiva en la atención prestada al mayor. Por este motivo, BREATHE se plantea no sólo como una herramienta puntual y estática que resuelve un problema concreto en un momento determinado sino más bien como una solución continua y dinámica que acompañe al cuidador informal durante todo el proceso que dure el cuidado del mayor y vaya evolucionando con el paso del tiempo a medida que las condiciones y las necesidades tanto de la persona mayor como del propio cuidador informal vayan variando. Asimismo, el diseño y desarrollo de la plataforma de apoyo BREATHE parten de la premisa de que cuidar a una persona mayor con ciertas dependencias por parte de alguien que carece de formación socio-sanitaria explícita es un proceso altamente complejo por las particularidades intrínsecas y únicas de las propias personas implicadas en el mismo (i.e. persona mayor y cuidador). Es por eso que, con el objetivo de reducir al máximo la complejidad del problema inicial y poner algunos límites a la casuística elevada que se da en un entorno como éste, el escenario tipo a validar durante las pruebas piloto que se están realizando con usuario reales en España, Reino Unido e Irlanda están restringidas a personas mayores que viven solas y que tienen además un elevado grado de autonomía. Asimismo, es importante mencionar que, bajo ningún concepto, el sistema BREATHE se plantea como una alternativa a cualquier sistema tecnológico que requiera de un tiempo de respuesta crítico frente a una situación de emergencia. A grandes rasgos, la plataforma de apoyo BREATHE se compone de los siguientes módulos: (1) sistema inteligente de AAL (AAL home system), (2) sistema de almacenamiento y procesado en la nube (backend) y (3) herramienta de gestión y toma de decisiones para el cuidador informal (frontend). Figura 2 Sistema inteligente de AAL Elemento Dispositivo de interacción Figura 1 Arquitectura de la plataforma BREATHE 27 Descripción/Objetivo Tablet PC con sistema operativo Android +4.0. Permite a la persona mayor o en situación de dependencia activar/desactivar el sistema inteligente de AAL por un periodo de tiempo determinado (i.e. 1 hora, 6 horas o 24 horas). Pasado este tiempo, el sistema inteligente de AAL se pone de nuevo en funcionamiento de forma automática tras notificar tanto a la persona mayor como a su cuidador principal que éste vuelve a reanudar su actividad y por tanto la persona mayor vuelve a estar monitorizada. El objetivo del mismo es preservar la privacidad del mayor dotándole de una herramienta que le permita Set de sensores ZWave® Dispositivo inalámbrico de captación de imagen controlar el sistema y decidir cuándo y bajo qué condiciones ser monitorizado. Z-Wave® es una tecnología estándar de comunicación inalámbrica ampliamente aceptada en todo el mundo (tanto en el entorno académico/investigación como a nivel comercial). Ha sido éste el protocolo de comunicación empleado por los distintos sensores (de forma específica: sensores de contacto magnético, sensores de movimiento y medidores de intensidad o consumo eléctrico) que han sido distribuidos por la vivienda de la persona mayor o en situación de dependencia con el objetivo de identificar, de forma autónoma y sin intervención de la persona, un conjunto específico de actividades que forman parte del día a día de las personas. En concreto: actividades relativas al uso de la cocina (uso de la cafetera, uso de la nevera, uso del microondas y uso de la encimera) así como actividades relativas al movimiento de la persona en el interior (movilidad en el pasillo) y exterior de su vivienda (entrada y salida de la vivienda). El dispositivo inalámbrico de captación de imagen es la base del sistema de monitorización basado en vídeo. Se trata de una cámara con conexión Wifi que se instala en aquellas zonas de la vivienda donde la persona mayor realiza el mayor número de actividades (i.e. en la cocina y/o la sala de estar) cuyo objetivo es (1) permitir al cuidador informal ver qué está pasando en tiempo real en casa de su familiar, (2) detectar e identificar, de forma automática y gracias al procesado de imagen y la visión artificial, un conjunto específico de actividades cotidianas (en concreto las mismas actividades detectadas por el Set de sensores Z-Wave® anteriormente descritas además del nivel de actividad de la persona en aquella/s estancia/s dónde la cámara haya sido instalada) y (3) generar un mapa de calor (heatmap) que permita al cuidador informal conocer de forma rápida y de un vistazo cómo de activa ha sido su persona mayor a lo largo del día. Dado que instalar una cámara en un entorno doméstico es siempre una tarea compleja y delicada por los riesgos obvios que entraña, es importante mencionar en este punto que a la hora de desarrollar esta parte concreta del sistema ha sido un requisito fundamental impuesto por el propio equipo BREATHE maximizar la Elemento concentrador con capacidad de proceso seguridad y preservar la privacidad de la persona (cuando el cuidador informal accede de forma remota a la vivienda de su persona cuidada, la imagen de la persona mayor es reemplazada por un avatar con forma de silueta por lo que nunca se muestra la imagen real de la persona). Asimismo, es a su vez importante mencionar que todas las pruebas piloto que se han llevado a cabo con usuarios reales han sido supervisadas y aprobadas con anterioridad por el Comité Ético de la Facultad de Ciencias para la Salud del Trinity College de Dublín1 (Irlanda). En la actualidad y dado que nos encontramos en la primera iteración de las pruebas piloto que se realizarán a lo largo del proyecto con usuarios reales, existe un elemento concentrador con capacidad de proceso por cada uno de los diferentes sistemas de monitorización instalados en la vivienda de la persona mayor o en situación de dependencia. Concretamente, disponemos de un ordenador personal con alta capacidad de proceso y sistema operativo GNU/Linux Ubuntu dedicado al procesamiento y análisis de las imágenes adquiridas por el dispositivo inalámbrico de captación de imagen y un ordenador de bajo coste (Raspberry Pi Model B+ con módulo de comunicación RaZberry2) para posibilitar la transmisión y recepción de tramas Z-Wave® generadas por el set de sensores instalados en la vivienda. El objetivo principal del elemento concentrador es hacer llegar los eventos detectados de forma automática al sistema de almacenamiento y procesado en la nube. 2.3 Sistema de almacenamiento y procesado en la nube El objetivo principal del sistema de almacenamiento y procesado en la nube es (1) almacenar todos los eventos (datos en bruto o RAW) que son detectados e identificados de forma automática por el sistema inteligente de AAL disponible en casa de la persona mayor o en situación de dependencia y (2) convertirlos, por medio de una serie de algoritmos, en un conjunto de actividades que proporcionen un mayor nivel de información a los cuidadores informales alimentando de forma ininterrumpida la herramienta de gestión y toma de decisiones que éstos tienen a su disposición para mejorar su calidad. La plataforma en la nube propiedad de la empresa Google3 (Google App Engine, GAE4) ha sido la tecnología que ha sustentado el backend del sistema BREATHE. Aunque es- 28 capa de los objetivos perseguidos por este documento el comparar las distintas soluciones en cloud existentes en la actualidad, los principales motivos por los cuales el Proyecto BREATHE se ha decantado por esta plataforma y no otra han sido: (1) posibilidad de desplegar distintas instancias de la misma versión del software por país de origen donde se van a llevar a cabo las pruebas piloto (España, Reino Unido e Irlanda), (2) posibilidad de alojar los datos que son recogidos de forma automática por el sistema inteligente de AAL en servidores que se encuentren físicamente dentro de las fronteras de Europa (y no en Estados Unidos cuya política de protección de datos es particularmente distinta a la Europea), (3) posibilidad de crear aplicaciones en diferentes lenguajes de programación (Java, Python, PHP o Go), (4) escalado automático de los recursos de la aplicación de forma automática en función de la demanda del servicio, (5) disponibilidad de plug-ins que facilitan la integración de GAE con las principales herramientas de desarrollo disponibles hoy en día (Eclipse, IntelliJ, Maven, Git, etc.), (6) buena documentación actualizada y multitud de ejemplos funcionales, librerías y (7) servicios REST disponibles (Google Cloud Endpoints5) para posibilitar el intercambio de información entre GAE y los dispositivos móviles (iOS, Android OS o clientes en Javascript). a hacer en España, Reino Unido e Irlanda. La segunda iteración (Julio, 2015) puso a disposición de 7 usuarios reales (5 parejas en España y 2 en Reino Unido) la tecnología BREATHE de forma que, durante 3 meses y de forma continuada e ininterrumpida (7x24), el sistema inteligente de AAL estuvo monitorizando y recogiendo información al respecto de las actividades llevadas a cabo por 7 personas mayores en su propia vivienda y presentándola de forma fácil e intuitiva a sus principales cuidadores informales a través de la herramienta del cuidador informal. La última iteración (Octubre, 2015) permitió desplegar la infraestructura BREATHE en 15 viviendas con usuarios reales (5 parejas en España, 5 en Reino Unido y 5 en Irlanda) con el objetivo de validar el sistema hasta final de año (3 meses). Tal y como se aprecia en la figura 1 de la página 3, existen dos variantes diferentes de la herramienta de gestión y toma de decisiones para el cuidador informal. Concretamente, existe una versión home más completa y que dispone de todas y cada una de las funcionalidades que han sido implementadas a lo largo del proyecto BREATHE. Aunque para acceder a esta solución el usuario tan solo necesita abrir un navegador web y acceder a una URL7 específica donde está alojada la herramienta (i.e. el cuidador informal no necesita instalar nada en su equipo puesto que todo el software está desplegado en la nube), esta versión ha sido pensada para aquellas situaciones en las cuales el cuidador informal está en casa y dispone de un ordenador personal con teclado y ratón para manejar la herramienta. Por el contrario, existe una versión reducida (mobile) para aquellas circunstancias en las cuales el cuidador informal no está en casa, pero necesita conocer en tiempo real las actividades que está realizando la persona mayor. Se trata ésta de una aplicación para el móvil (sistema operativo Android +4.0) con un número reducido de funcionalidades: notificaciones en tiempo real e informe de actividad con tendencias (alta, baja o igual) acerca de las actividades cotidianas que ha realizado la persona mayor a lo largo del día. Asimismo, dentro de la herramienta para el cuidador informal han sido definidos dos roles que complementan la labor del cuidador informal y aseguran la disponibilidad/viabilidad de la plataforma con el paso del tiempo. De forma específica, existe un rol de administrador para gestionar las cuentas de los usuarios en la base de datos y dotar de contenidos a la plataforma que sirvan de apoyo/guía al cuidador informal en función de su situación personal. Existe además un rol de administrador técnico que permite identificar de forma rápida posibles caídas del sistema y contactar con los responsables técnicos de los sitios pilotos para solucionar el problema en la mayor brevedad. Los tres perfiles anteriormente descritos (cuidador informal, administrador y administrador técnico) tienen a su alcanza un conjunto de servicios y herramientas disponibles en la propia plataforma BREATHE. Al respecto de las principales funcionalidades de las que dispone la herramienta de gestión y toma de decisiones para el cuidador informal, podemos destacar: 2.4 Herramienta de gestión y toma de decisiones para el cuidador informal La herramienta de gestión y toma de decisiones es el equipamiento que tienen a su disposición los cuidadores informales para conocer, de primera mano, qué está pasando alrededor de la persona mayor o en situación de dependencia. Dado que una de las principales consecuencias del proceso de cuidar es el deterioro en la propia salud y estado de ánimo del propio cuidador, es también un objetivo prioritario de esta herramienta el monitorizar al cuidador informal para así conocer cómo está evolucionando con el paso del tiempo y detectar con suficiente antelación si existe algún riesgo para la persona (es importante mencionar que la monitorización del cuidador informal no se realiza a través de un sistema tecnológico de recogida de datos como es el sistema inteligente de AAL que tenemos a disposición de la persona mayor sino a través de una serie de sencillos cuestionarios de 5 preguntas y una herramienta automática de análisis de sentimiento que permite identificar si el estado de ánimo de una persona es positivo, negativo o neutro así como cuál es el nivel de sobrecarga/saturación de la persona). La herramienta del cuidador informal ha sido desarrollada y puesta a disposición de los usuarios reales en tres iteraciones distintas. La primera iteración (Julio, 2014) permitió validar al equipo técnico BREATHE tanto las tecnologías (Java EE7, JPA para la capa de persistencia y el framework Vaadin6 para el desarrollo del frontend) como la propia infraestructura en la nube (GAE) que iba a permitir albergar los datos generados de al menos 30 parejas reales (persona mayor y cuidador informal) a través de las pruebas piloto que se iban 29 Información acerca del nivel de actividad de la persona mayor a nivel global, en la cocina o relativa a la movilidad en el interior de su propia vivienda Heatmap o mapa de calor que revela, cómo de activa así como en qué zonas de la estancia ha pasado la mayor parte del tiempo la persona mayor a lo largo del día. Herramienta de análisis de sentimiento que permite conocer de forma automática si un texto libre (limitado a 140 caracteres, por sencillez) escrito por el cuidador informal es positivo, negativo o neutro. Cuestionario semanal compuesto por 5 preguntas (requiere menos de 1 minuto en ser cumplimentado) y recordatorio de cuestionario pendiente por rellenar para el cuidador informal que nos permite, con el paso del tiempo, identificar si una persona necesita ayuda (sobrecarga) como consecuencia de la elevada dedicación semanal y del estrés ocasionado por el hecho de cuidar. Línea temporal, en tiempo real, con las actividades que ha realizado/están siendo realizadas por la persona mayor en su vivienda. 30 Estadísticas, tendencias (alta, baja y alta) y evolución de las actividades que ha realizado la persona mayor en su vivienda en tres periodos de tiempo distintos: las últimas 24 horas, los últimos 7 días y los últimos 30 días. Acceso en tiempo real por parte del cuidador informal a la(s) cámara(s) instaladas en la vivienda de la persona mayor o en situación de dependencia. Por aspectos éticos y con el fin de preservar la privacidad de la persona, la imagen real es reemplazada por un avatar con forma de silueta. Asimismo, la persona mayor es notificada cuándo el cuidador informal accede a la cámara (i.e. está viendo en tiempo real el interior de la vivienda) y esta funcionalidad sólo está disponible para el cuidador principal del mayor. Evolución del estado del cuidador informal en términos de sobrecarga y dedicación semanal teniendo en cuenta las respuestas proporcionadas por el propio cuidador a los cuestionarios semanales que tiene a su disposición, así como el resultado de la herramienta de análisis de sentimiento. En función del estado en el que se encuentre el cuidador (bajo nivel de sobre), la herramienta BREATHE le proporcionará una serie de acciones/actividades con el objetivo de reducir su nivel de estrés y sobrecarga. 3. Conclusión La plataforma BREATHE no es un sistema/servicio de emergencias que proporcione una respuesta inmediata frente a una situación crítica de emergencia. Por el contrario, BREATHE se concibe como un sistema de monitorización remoto que proporciona un apoyo continuo al cuidador informal en el proceso de cuidado a largo plazo de una persona mayor y/o dependiente. Dado que las pruebas piloto que se están realizando con usuarios reales en España, Reino Unido e Irlanda todavía siguen en marcha (hasta Diciembre, 2015), el equipo BREATHE no dispone a día de hoy de las conclusiones finales como consecuencia de la valoración del servicio por parte de los usuarios. Sin embargo, gracias a las entrevistas que hacemos con los usuarios y el uso que los cuidadores informales hacen de la herramienta, a día de hoy sabemos que: Al respecto de tener la oportunidad de ver en tiempo real que está pasando en casa de la persona mayor o en situación de dependencia, la mayor parte de los mayores (80%) y de los cuidadores informales (68%) encuentran útil y aceptable el tener las cámaras instaladas y accesibles desde la herramienta del cuidador informal. Las estancias valoradas de forma positiva en las cuales las personas mayores estarían de acuerdo con tener una cámara instalada son (en orden de prioridad): la sala de estar, la cocina y el dormitorio. Las personas mayores aceptan que su cuidador principal (familiar) sea la única persona quien pueda acceder a ver en tiempo real qué está pasando en el interior de su vivienda porque asumen/entienden que es una funcionalidad útil para el/ella. Bajo ningún concepto, es aceptable por las personas mayores ni sus cuidadores informales que se almacene imágenes o vídeos (ni siquiera de forma parcial). Aunque bajo determinadas circunstancias las personas mayores valoran de forma positiva que su cuidador principal pueda ver la imagen real de lo que está pasando en su vivienda, prefieren ser reemplazadas por un filtro o avatar de forma que se preserve su imagen. El eje de tiempos (timeline) con las actividades que está realizando la persona mayor y la posibilidad de verla en tiempo real (live view) son las funcionalidades mejor valoradas de la herramienta del cuidador informal. Aunque la herramienta del cuidador informal fue concebida como una aplicación compleja de trabajo que requería de un ordenador personal, teclado y ratón para sacar el máximo provecho de la misma, la mayor parte de los cuidadores informales prefieren acceder a la misma a través de dispositivos móviles (en orden: Tablet PC y teléfono móvil) de reducidas dimensiones. En media, los cuidadores informales acceden a la herramienta del cuidador informal entre una y dos veces al día. El miércoles entre las 09.00 y las 10.00 am es el momento más favorable para los cuidadores informales para acceder a la herramienta del cuidador informal (i.e. mayor número de accesos). Por el contrario, el domingo es el día que menos tráfico genera. En media, los cuidadores informales emplean entre 1 y 3 minutos por sesión (donde una sesión significa la diferencia de tiempo entre el logout y el login en la plataforma). En las pruebas piloto que permitieron validar la segunda iteración del software (desde Julio hasta Octubre del 2015), el sistema inteligente de AAL ha recogido 191.989 eventos en 7 viviendas. Distribuidos como sigue: 144.669 (75,53%) por parte del set de sensores y 47.094 (32,55%) del sistema de vídeo. La valoración que hacen los cuidadores informales del sistema BREATHE es, hasta la fecha, muy positiva. Confían plenamente en la información que el sistema pone a su disposición y el hecho de saber qué está haciendo su persona mayor, así como poder verlo en un momento determinado les da calma y tranquilidad. Agradecimientos El Proyecto BREATHE ha sido financiado de forma conjunta por el Ambient Assisted Living Joint Programme (Call 5, 2012) así como algunas autoridades y programas de investigación locales en España, Reino Unido, Irlanda e Italia. Bibliografia [1] Who cares? Care coordination and cooperation to enhance quality in elderly care in the EU. Marin et al. 2009 [2] Long-term care challenges in an ageing society: the role of ICT and migrants. Results from a study on England, Germany, Italy and Spain. JRC scientific and technical reports. European Commission (EUR 24382 EN). 2010. Public document available on: http://ftp.jrc.es/EURdoc/JRC58533.pdf [3] Negative caregiving effects among caregivers of Veterans with dementia. Bass D, Judge K, Snow A, et al. American Journal of Geriatric Psychiatry 20(3):239-247. 2012. [4] EUROFAMCARE Project (contract number QLK6CT-2002-02647). Services for supporting family carers of elderly people in Europe: characteristics, coverage and usage. International re-search project funded within the 5th Framework Programme of the European Community. http://www.uke.de/extern/eurofamcare (Last access June 2015). [5] Deliverable D1.1 – Needs and requirements of AAL and ICT solutions for the informal. Public document available on: http://www.breathe-project.eu/en/publications. (Last access June 2015). 31 Filtering process and data exchange architecture over ECG custom-hardware platform Luis Miguel Soria Morillo1 , Daniel Scherz 2 , Ralf Seepold 2 and Juan Antonio Ortega Ramı́rez1 1 University of Seville. Seville, Spain [email protected], [email protected] 2 Ubiquitous Computing Lab (UC-Lab), HTWG Konstanz. Konstanz, Germany [email protected], [email protected] 1 Introduction del riesgo de olvido), el problema de estos sensores suele ser la precision. ´ Para determinados ámbitos entornos de monitorizacion ´ clı́nica y continua, esta alternativa no es viable. Por otro lado, los wearables suelen contener un sensor ECG tan solo ´ válido para calcular el pulso, pero inutil ´ para obtener el perfil eléctrico del comportamiento cardiaco. Para paliar el inconveniente de la precision, ´ mantener la comodidad y poder acceder al perfil fisio-eléctrico, ha sido desarrollado un dispositivo basado en hardware low-cost para este proposito. ´ La senal ˜ capturada por este dispositivo, aunque extremadamente clara, posee ciertos niveles de ruido y artefactos que deben ser filtrados. En este trabajo, por un lado, se propone la aplicacion ´ de un conjunto de filtros sobre la plataforma hardware elaborada para reducir el impacto del ruido en la senal. ˜ Dicho proceso es lo suficientemente rápido para ser llevado a cabo en tiempo real. Finalmente, usando este procesamiento, un aumentando en la claridad de la senal ˜ es conseguido, permitiendo su uso en determinados entornos clı́nicos como, por ejemplo, sistemas de monitorizacion ´ del sueno. ˜ Por otro lado, gracias al desarrollo modular seguido para construir el sensor, en este trabajo se propone el uso de una plataforma de integracion ´ de sensores, basada en frameworks, que posibilite el intercambio de datos entre las diferentes motas del sistema y un dispositivo central. Este dispositivo principal, aunque podrı́a aplicarse a otros perfiles hardware, se trata de un dispositivo movil. ´ Las principales razones de esta eleccion ´ han sido la versatilidad, el reducido coste y la expansion ´ de estos dispositivos en la sociedad. Para ilustrar el uso de esta arquitectura de conexion, ´ se ha elegido un escenario de monitorizacion ´ del sueno. ˜ En este entorno, además del uso de motas ECG, es necesario sistemas EEGs, electromiografı́a y sensores para la medicion ´ de galvanic skin response. ECG sensors have become popular in recent years thanks largely to the integration with different wearables. Despite the advantages of this integration (comfort, reduced risk of forgetting), the problem of these sensors is usually the lack of accuracy. For certain clinical environments fields and continuous monitoring environments, this alternative is not viable. Furthermore, wearables’ hardware typically only allows to obtain valid information to calculate the heartrate, but they are often useless for electrical heart ECG profile. To overcome the disadvantage of the lack of accuracy, keeping comfort and the physio-electric access profile capabilities, a device based on low-cost hardware has developed for this purpose. The signal captured by this device, although extremely clear, has certain levels of noise and artifacts that must be filtered. In this paper, first, a set of filters have been applied on the signal from the hardware platform developed, in order to reduce the impact of the noise on the signal. This process is fast enough to be carried out in real time. Finally, by using this processing a clearer signal has been achieved, allowing its use in certain clinical settings, for example, in sleep monitoring systems. On the other hand, thanks the modular development followed during the build of the sensor, a platform sensor integration based on frameworks is proposed in this paper. This platform makes possible a data exchange between different spots of the system and a core device. This central device, although it could be applied to other hardware profiles, is a smartphone. The main reasons for this choice were versatility, reduced cost and spreading out of these devices in the society. With the aim of illustrating the use of this architecture and the use of these sensors as well, a sleep monitoring environment has been chosen. In this environment, the developed ECG sensor has been incorporated; besides, EEG systems, electromyography and galvanic skin response sensors have been successfully integrated. 2 Introduccion ´ El uso de sensores ECG se ha popularizado en los últimos anos ˜ gracias a la integracion ´ con diferentes wearables. A pesar de las ventajas de esta integracion ´ (comodidad, reduccion ´ 32 Drive assistant combined with EEG data applied to aggressive driving perception Emre Yay1 , Luis Miguel Soria Morillo2 , Natividad Martı́nez Madrid1 and Juan Antonio Ortega Ramı́rez2 1 University of Reutlingen Reutlingen, Germany [email protected], [email protected] 2 University of Seville Seville, Spain [email protected], [email protected] Abstract 1 in real time. The infrastructure used in this study will allow the staff to communicate with the driver, in order to calm the driver down and, thus, to reduce the aggressiveness of the driving behaviour. In this study, this process is performed in an autonomous way, by showing audio-visual alerts to the driver. Furthermore, if the car is compatible, the system will play relaxing music in order to work towards stress reduction. Introduction According to a report of the Foundation for Traffic safety, aggressive driving actions were found in 56 percent of fatal crashes occurred in the last years. Furthermore, aggressive driving accounts for more than half of all traffic fatalities. Aggressive drivers tend to have less concern for other drivers, and this provokes bad habits such as speeding, tailgating, honking frequently or gesturing angrily at other drivers. Alcoholic rehabilitation programmes are quite spread all along the world. However, this kind of programs are not oriented to aggressive behaviour on drivers. In contradistinction to alcohol problems, aggressive patterns can be determined throughout a physiologic study. For example, an electroencephalography (EEG) can help to determine the risk of a driver to be involved in a road rage incident. Rehabilitation programmes in these cases are focused on showing the consequences of aggressive driving to this kind of drivers by means of multimedia. However, in some cases driving schools offer practical lessons to correct inappropriate behaviours related to aggressive profiling. In the absence of intensive enforcement of driving laws, aggressive and stressed driving behaviours are not punished, just the effect of this mental state on the road. For instance, a driver will be sanctioned for speeding, but not because he/she is under stress or irritated. In this work, an approach to a fully functional ubiquitous system to detect aggressive behaviours is presented. Based on biometrical parameters and by means of a connection to the in-vehicle CAN-bus, the system can detect the presence of several factors that lead to an increasing rates of the accidents and road safety violations. Using a portable and commercial EEG sensor, the brain activity of the driver is monitored in real time. From a database that is built in this study, the system will analyse the current state and its deviation from an aggressive driving profile. Based on this deviation that is obtained by applying an artificial neural network, the system will determine the risk level of the situation. This system will be connected to the server at a driving school that allows qualified staff to check the profile of each driver 33 Evaluation of an energy-efficiency and safety relevant driving system on a driving simulator Emre Yay and Natividad Martı́nez Madrid Juan Antonio Ortega Ramı́rez Reutlingen University University of Seville School of Informatics Department of Languages and Computer Systems Alteburgstr. 150 Av. Reina Mercedes s/n 72762 Reutlingen, Germany 41012 Seville, Spain {emre.yay, natividad.martinez}@reutlingen-university.de [email protected] Abstract to educate the driver in energy-efficient or safe driving. Some driving systems, like Artemisa, show recommendations or warnings to the driver in order to support the driver in efficient or safe driving. Other driving systems, like eco:Drive or DriveDiagnostics, generate reports, in which the driving behaviour is rated in terms of energy-efficiency or safety and driving hints are shown to improve the driving behaviour. However, existing driving systems cover either the area of safety or energy-efficiency. Furthermore, they do not consider the driver condition and do not adapt itself to the individual driving behaviour, which would allow to increase the user acceptance of the driving system and to increase the road safety, as the driving system would not bother the driver with recommendations that are not interesting in the sense of the driver. Furthermore, recommendations could be shown to the driver only in situations, in which the driver is for example not stressed. On the basis of these facts, a prototype of a driving system was developed that tries to educate the driver in energy-efficient and safe driving. Therefore, the driving system shows recommendations to the driver when the driver is driving energy-inefficient or unsafe. Furthermore, the driving system adapts itself to the individual driving behaviour and considers the driver condition. This allows to eliminate bad driving habits that caused an inefficient or unsafe driving behaviour, while considering the driver needs. A driving simulator and 40 test drivers will be used to evaluate the prototype of the driving system. The evaluation includes the testing if the usage of the driving system has an effect on the driving behaviour in terms of energy-efficiency and safety. Furthermore, it will be evaluated if the adaptiveness of the driving system increases the user acceptance of the driving system, which can lead to a sustainable use of the driving system and, thus, to an increase of the energyefficiency and safety. The following section introduces the developed driving system and describes briefly the architecture of the driving system. Section 3 shows the architecture of the driving simulator and explains the integration of the developed driving system in the environment of the driving simulator. As the developed driving system will be evaluated, Section 4 presents the evaluation plan of the driving system. Finally, a conclusion of this paper is presented and the further steps of the work are given. An energy-efficiency and safety relevant driving system was developed that tries to improve the driving behaviour in terms of energy-efficiency and safety by showing recommendations to the driver. During the evaluation, the influence of the driving system on the energy-efficiency and safety of the driving behaviour will be measured on a driving simulator. In this paper, the evaluation plan as well as the preparation of the driving system and the driving simulator are explained. In order to allow the creation of a recommendation, the driving system has to be connected to the driving simulator. However, the driving simulator does not provide all needed information, why the limitations of the driving simulator have to be considered in the evaluation plan. Furthermore, the driving simulator has to be prepared for the evaluation of the driving system regarding the scenario defined in the evaluation plan. On the basis of the evaluation plan as well as the prepared driving system and driving simulator the evaluation will be done using 40 test drivers. 1 Introduction Energy-efficiency and safety became more important in the last decades due to the human-made climate change and the increasing number of cars on the road that led to more accidents and fatalities. Thus, several laws were enacted to reduce the energy consumption, such as the CO2 limitations for passenger cars in the European Union. Due to the increasing importance of energy-efficiency and road safety, car manufacturers are trying to optimise the car and its individual parts, like the car body or the engine. However, there is also the potential to increase the energy-efficiency and road safety by adapting the driving behaviour to the current driving situation. According to Xiaoqui et al. [2011] and Chin and Quek [1997], the driving behaviour has effects on road safety. Furthermore, several studies showed that adapted driving can save energy up to 30% [Haworth and Symmons, 2001; Helms et al., 2010; Mierlo et al., 2004]. There are already existing driving systems, like, eco:Drive [Fiat, 2010], Artemisa [Magana and Organero, 2011] or DriveDiagnostics [Lotan and Toledo, 2006] that try 34 2 Driving system compares the current driving behaviour of the driver against the driving rules and the driving profile. On recognition of an unsafe or inefficient driving behaviour or when the current driving behaviour differs significantly from the typical driving behaviour in a negative way, the processing layer starts to decide whether to create a recommendation. During the decision, the driving system considers the driver condition, the driving profile and the future car state. In case, the driver is for example not stressed, did not ignore the recommendation repeatedly in the past and will not improve the driving behaviour in the near future, the processing layer decides to show a recommendation and, thus, creates the corresponding recommendation and passes it to the graphics layer. The graphics layer of the driving system is responsible for rendering the graphical user interface and presenting the recommendation to the driver as well as processing the input of the driver. The graphical user interface is rendered on the invehicle display unit. The driver has the opportunity to switch the user and to modify the user profile, i.e. name or surname, using for example the touch capability of the display. The recommendations are presented to the driver as a text on the graphical user interface and using an audio voice that reads the recommendation to the driver. The driving system collects information from the car, the driver and the environment in order to check if the driver is driving energy-efficient or safe and to adapt itself to the individual driving behaviour of the driver. Furthermore, the driving system shows recommendations to the driver when the current driving behaviour differs significantly from the typical driving behaviour. The driving system avoids to show recommendations to the driver when the driver is in stress. This allows to increase the road safety further, as the driving system does not distract the driver for example in a stressful driving situation. 3 Driving simulator The driving simulator consists of three displays and a several speakers to present the virtual world to the driver, as shown in Figure 2. Furthermore, the dashboard of the driving simulator shows the speed and engine speed of the virtual vehicle to the driver. For steering the virtual vehicle, the driver has the opportunity to use a steering wheel, pedals and a gear shift knob. Besides, the controls for steering the virtual vehicle and the presentation of the virtual environment, the driving simulator allows the monitoring of the driver conditions, like the brain activity or the heart beat, using an EEG and an ear sensor. The driving simulator is using three computers for simulation, data collection and presentation of applications to the driver. The vehicle controls and the ear sensor as well as the displays, speakers and the dashboard are connected to the simulation computer that simulates the virtual environment using the open source driving simulator OpenDS1 and calculates the driver stress level using emWave2 . OpenDS and emWave send the information of the vehicle, like speed or current gear, and the driver stress level to the data collector computer using the tcp/ip interface. Additionally, OpenDS allows to steer the virtual vehicle by sending information about the steering wheel and the pedal position using its tcp/ip interface. The data collector computer is responsible for collecting and logging the information from the virtual vehicle and the user. Furthermore, it simulates the in-vehicle serial-bus sys- Figure 1: Architecture of the driving system with the three layers and their modules Figure 1 illustrates the architecture of the driving system including the different layers and their tasks. The architecture of the driving system is separated in three layers: data layer, processing layer and graphical layer. The data layer is responsible for gathering needed data from the car, the driver and the environment using the in-car serial-bus systems and additionally attached sensors. Furthermore, it aggregates the incoming information and creates or updates a driving profile that represents the typical driving behaviour of the driver. Finally, the data layer stores the driving profile and the collected data from the serial-bus systems and attached sensors for further processing. Additionally, the data layer consists of driving rules that describe an energy-efficient and safe driving behaviour, such as shift the gear as soon as possible or do not exceed the speed limit. On the basis of the information stored in the data layer, the processing layer first predicts the car state. This allows to show recommendations to the driver before the driver breaks a rule and, thus, the driver is able to prevent the breaking of a energy-efficient or safety relevant driving rule. Furthermore, the predicted car state allows the driving system to avoid showing a recommendation when the driver will improve the driving behaviour in the near future. If the reader is interested in the prediction of the car state, the reader is encouraged to read [?]. Based on the predicted car state, the driving profile and the information that is stored in the data layer, the processing layer analyses the driving behaviour and 1 More information about the driving simulation software OpenDS can be found on www.opends.de 2 emWave is a software of the company HeartMath. It allows the monitoring of the heart-rate variability, the pulse and the stress of the user. For more information please visit www.heartmath.com 35 Speaker or engine speed of the engine control unit. The messages have an hexadecimal identifier that allows to access the message. The incoming information from the data logger is put into their corresponding control unit. For example, the information speed and engine speed is put in the control unit engine, whereas the information about the EEG is passed to the control unit EEG-monitor. This allows to access the gathered information from the virtual environment or the driver monitoring using the CAN serial-bus system. As shown in Figure 2, the data collector computer, respectively the CAN-bus simulation, is connected to the embedded computer using a hardware CAN-interface. Thus, the embedded computer is able to access the data that is stored in the virtual control units of the CAN-bus simulation for further processing. The embedded computer represents the in-car computer on which the driver relevant applications are running, like driving systems or the navigation. The prototype of the driving system will run during the evaluation on the embedded computer and will gather all needed data from the CAN-bus simulation using the CAN-interface of the embedded computer. Therefore, the driving system registers all ids of the virtual control unit messages in the hardware CANinterface, which then starts to listen for that messages on the simulated CAN-bus. The incoming information from the simulated CAN-bus will be then used in the driving system for showing recommendations to the driver. Speaker Displays Speaker Dashboard Steering wheel / Pedals / Gear shift knob Touchscreen Driver seat Ear sensor EEG Speaker Speaker Simulation computer emWave TCP/IP Embedded computer Application OpenDS TCP/IP CAN-Interface Data Collector computer CAN-Interface 4 CANoe The evaluation of the driving system will be done using 40 test drivers. During the evaluation it will be tested if the driving system has an influence on the driving behaviour in terms of energy-efficiency and safety. Furthermore, it will be tested if the user acceptance increases when using the adaptive feature of the driving system. For each test 20 test drivers will be used to drive 16 km on a highway and 6 km within a city. The highway track is shown in Figure 3 and consists of four lanes, two in each direction. One lap on the highway is about 12 km. The track consists of different speed limits, which are 70 km/h, 80 km/h, 100 km/h and 120 km/h. However, to give the driver the feeling to drive on a German highway, there are also parts without a speed limit. The traffic on the highway Control Unit TCP/IP Control Unit CAN-Bus COM-Server Data Logger COMClient Evaluation plan Engine Control Unit Figure 2: The architecture of the driving simulator tem using the software CANoe3 . The EEG sensor that monitors the brain activity of the driver is attached to the data collector computer. The data logger within the data logger computer collects the information from the EEG, OpenDS and emWave and sends them to the CANoe software using the COM connection between the data logger and CANoe. Within CANoe, the CAN serial-bus system of the car is simulated that contains the simulation of the different control units, e.g. engine control unit. Each control unit in the simulation contains different messages, like the messages speed 3 CANoe is a development and testing software tool of the company Vector GmbH. For more information please visit www.vector.com Figure 3: The highway track with its speed limitations 36 Table 2: The evaluation plan to test if the driving system increases the user acceptance In the second part of the evaluation 20 test drivers will be used to test if the adaptive feature of the driving system increases the user acceptance of the driving system. In order to measure the user acceptance, the Usefulness, Satisfaction and Ease of Use (USE) questionnaire of Lund [2001] will be used, as it is categorised in usefulness, ease of use, ease of learning and satisfaction. However, questions about ease of use and other questions will be removed that did not fit into the evaluation. Furthermore, new questions will be added that are relevant for the evaluation, such as a question about the frequency of the recommendation. According to the evaluation plan shown in Table 2, the test drivers will drive four journeys. In two journeys the adaptive feature of the driving system will be turned off, whereas in next two journeys the adaptive feature will be turned on. Test drivers with an even subject number will start with the highway track and the adaptive feature turned off. An odd subject number will lead that the test drivers will start with the city track and the adaptive feature turned on. After the first two journeys and after the last two journeys the test drivers will fill out the modified USE questionnaire, in which they will rate their experience with the driving system in the last two journeys. Figure 4: The city track showing the driving route and the positions of the traffic lights will consider the traffic limits, however, the traffic will drive at a maximum of 120 km/h on the left lane and 80 km/h on the right lane, that allows to represent the average speed of the lorries on a real highway. Figure 4 shows the city track and the driving route within the city track. Within the city a general speed limit of 50 k/h is set as the typical speed limit within cities is 50 km/h in Germany. One lap on the driving route is about 1.2 km and consists of three traffic lights and one roundabout. The traffic within the city will be driving on a two lane road, one lane for each direction, at a maximum of 30 km/h and will consider the traffic lights. For testing the effect of the driving system on the driving behaviour regarding the energy-efficiency and safety, 20 test drivers will drive once with and once without the driving system on both tracks. During the journeys the fuel consumption, the driven distance and the time when the speed limit exceeded will be measured. However, the first kilometres of the journey will not be measured, as the drivers have to get familiar with the driving simulator. Table 1 shows the evaluation plan, in which the test drivers will drive in the first two journeys without the driving system. This allows to measure the usual driving behaviour of the test drivers. In the last two journeys the driving system will be introduced to the test drivers, who will get energy-efficient and safety relevant driving recommendations from the driving system. Test drivers with an even subject number will start the evaluation with driving on the highway track, while test drivers with an odd subject number will start driving within the city track. 5 Conclusion and Further Work In this paper the evaluation of an energy-efficiency and safety relevant driving system on a driving simulator was introduced. Therefore, the driving system was introduced and explained. Furthermore, the driving simulator was explained and the different tracks that will be used in the evaluation were shown. The connection between the prototype of the driving system and the driving simulator was explained, as well. Besides the presentation of the driving system and the driving simulator, the evaluation plan was introduced that showed the order of the test drives. To measure the effect of the driving system to the driving behaviour the metrics driven distance, fuel consumption and the time when the speed limit was exceeded will be used. The effect the driving systems adaptive feature to the user acceptance will be measured using the USE questionnaire. Future work comprises the application of the evaluation using the driving simulator and the prototype of the driving system on the basis of the evaluation plan. Furthermore, the results of the evaluation will be analysed and another evaluation will be done using a real car in order to verify the results of the driving simulator evaluation in a real environment. On the Table 1: The evaluation plan to test if the driving system has an effect on the driving behaviour 37 basis of the experiences with the driving simulator gathered during the evaluation, the driving simulator will be improved by adding more sensors to the virtual car and by improving the driving simulation. References [Chin and Quek, 1997] Hoong-Chor Chin and Ser-Tong Quek. Measurement of Traffic Conflicts. Safety Science, 26(3):169–185, 1997. [Fiat, 2010] Fiat. Eco-driving uncovered: The benefits and challenges of eco-driving, based on the first study using real journey data, 2010. [Haworth and Symmons, 2001] Narelle Haworth and Mark Symmons. Driving to reduce fuel consumption and improve road safety. Proceedings Road Safety Research, Policing and Education Conference, 2001. [Helms et al., 2010] Hinrich Helms, Udo Lambrecht, and Jan Hanusch. Energieeffizienz im Verkehr. Energieeffizienz, pages 309–329, 2010. [Lotan and Toledo, 2006] Tsippy Lotan and Tomer Toledo. An In-Vehicle Data Recorder for Evaluation of Driving Behavior and Safety. Transportation Research Board of the National Academies, 2006. [Lund, 2001] Arnold M. Lund. Measuring Usability with the USE Questionnaire. Usability and User Experience, 8(2), 2001. Available at http://web.archive.org/web/20141206144115/ http://www.stcsig.org/usability/newsletter/0110 measuring with use.html Last visit 13.06.2015. [Magana and Organero, 2011] Victor Corcoba Magana and Mario Munoz Organero. Artemisa, Using an Android device as an Eco-Driving assistant. Cyber Journals: Multidisciplinary Journals in Science and Technology, Journal of Selected Areas in Mechatronics (JMTC), 2011. [Mierlo et al., 2004] Joeri Van Mierlo, Gaston Maggetto, Erik van de Burgwal, and Raymond Gense. Driving style and traffic measures - influence on vehicle emissions and fuel consumption. Proceedings / Institution of Mechanical Engineers, 218, Part D: J. Automobile Engineering:43–50, 2004. [Xiaoqiu et al., 2011] Fan Xiaoqiu, Ji Jinzhang, and Zhang Guoqiang. Impact of Driving Behavior on the traffic safety of Highway Intersection. Third Int. Conf. on Measuring Technology and Mechatronics, 2:370–373, 2011. (2011). 38 Towards emotion pattern extraction with the help of stress detection techniques in order to enable a healthy life Wilhelm D. Scherz1, Juan Antonio Ortega2 and Ralf Seepold1 1 HTWG Konstanz Faculty of Computer Science Brauneggerstr. 55, 78462 Konstanz (Germany) [email protected] 2 Universidad de Sevilla Department of Computer Language and Systems Avda. Reina Mercedes s/n, 41012 Sevilla (Spain) [email protected] Abstract Emotions can be manifold but their single occurrences depend on several factors, like in objective situations of stress, happiness, sadness etc. and they depend on individual perceptions and attitudes in case a relevant situation occurs. The objective of this work is to discuss how emotions patterns can be extracted with the help of sensors, which are able to detect emotions. As a first step towards the question of emotions detection, a small prototype system has been developed to detect stress with the help of a mobile and wearable ECG. Keywords: emotion pattern, stress, sensor, ECG. 1 Figure 1 Symptoms and physical response of stress. Nowadays, stress is the result of the exposure to high demands and pressure in daily life that can be both mental and physical [8], e.g. constant desertions demand or constant time pressure; constant presence of stress, causes variety of disorders, like symptoms of overabundance of stress are fatigue, sleep problems, etc. [9] Stress can be artificially induced in a laboratory environment using different methods like the Trier test [10] or the Strop test [11]. The effects of stress have not changed over the time but the lifestyle, technologies and habits of modern life has hanged a lot. Figure 1 illustrates some symptoms of stress: In case of a thread, like shown in Figure 1, the body prepares him selves to fleeing or to confront the thread. In this case, the brain releases cortisol and adrenaline hormones. This is aiming to reduce the functionality of systems not necessary for imminent surviving like genitourinary system, digestion, hearing, peripheral view, etc. Also the activity of systems supporting flee or fight strategies are increasing, for example the heart rate or dilated pupils. Stress is very often underestimated because of the subjective perception. This is one of the main reasons that complicate its detection. Very often people show immediately symptoms of stress while others do not notice when passing the threshold of just ‘being busy’ to an objective high stress level [12]. Introduction Besides several emotions, which have influence on our life and life quality, stress is recognized as a factor with negative impact. Of course, stress may have a positive aspect in case it helps us to come out of dangerous situations because the body tries to join forces e.g. run away from the dangerous place. Short time stress is a natural response. Stress appeared as a mechanism that allows people and animals to react fast and effectively in dangerous situation. Stress releases biological mechanism that reorganises the body priorities and functions and tries to reach the maximum performance when there is danger. This is called the ‘fight or flight response’ [1]. Moving towards a more ordinary scenario, stress is a negative sensation that is recognized as a disease [2] by organisations like the World Health Organisation (WHO). Some well-known consequences of perdurable stress is failure to respond adequate to fiscal, mental and emotional demands [3, 4, 5]. Stress has also consequences for modern society: Longterm height stress levels lead to many diseases like burnouts or cardiac infarcts [6] [7]. As a consequence for society, the amount of people that will face limitations is increasing and this leads to a growth of the treating and healing costs of people suffering from long term stress. 39 Because of the subjective perception of stress, it is important to develop methods to determine stress objectively, and if possible, to find a method to reduce the stress or support a better management of stress. In summary, a person’s emotion is influence by many factors and stress is one factor that influences in a quite objective way our behavior. The purpose of this work is to make a first step towards the detection of emotion patterns with the focus on stress. Therefore, a small model has been developed to detect a stress pattern. In order to evaluate this model, a prototype has been developed and tested. In the following chapter, the state of the art with respect to stress detection is reported. Chapter 3 presents the systems architect developed, and chapter 4 will introduce the method to detect stress patterns. Chapter 5 interprets the results of the measurement. Chapter 6 concludes this word, and finally, an outlook on future activities is given. 2 The third group uses external biological sensors like in [16]. An example for these approaches is the measurement of stress while driving. The driver is monitored with an electrocardiogram (ECG) and an electromyogram that records the electrical activity of muscles (EMG), skin conductivity (SC), breath sensor and video camera that observes the driver. The main disadvantage is the limitation in the degree of movement. A second disadvantage is the missing online analysis of the data while the data is collected. In this case, the driver is not obtaining any kind of feedback about his current status. In contrast to the mentioned state of the art approaches, the new system uses a compact low cost ECG that is wearable, not invasive and real-time capable. The developed system can report to the user, via a simple user-interface the current status and while the data is visualised it can also be buffered and stored for later analysis by professionals or for validation. This work also is based on previous works for stress measurement [3, 5] [17]. State of the art As mentioned in the introduction, a first step towards emotion recognition will be taken with the help of stress detection. Therefore, this state of the art concentrates on stress detection. Monitoring of the stress indicators is often used but usually only for capturing exclusively the physical characteristic of the indicator without correlating the parameter, for example the heart rate. In most of the cases, there is no direct feedback to the user. Furthermore, these systems work like a black box in a non-transparent way for the user. After tracking and storing the data, data processing and interpretation is done offline. Finally, a diagnosis is reported to the user. In parallel, a shift that can be observed, from highly professional systems into an area of semi-/nonprofessional systems that support medical recommendation and monitoring systems. Generally, the systems can be divided in three categories: • Approaches without sensors • Approaches requiring a laboratory environment • Approaches with sensors The first group covers approaches that do not require sensor. These approaches analyse small differences in behavior that occurs between stressed or not stressed. Examples can be found in [13, 14] in which the way of typing while being stressed is monitored. The disadvantage of these approaches is the dependency to the context and the complexity for adapting to multiple environments. These approaches are often context based and not human based because they are focused on the context not the person. The second group covers tests that are realised in controlled laboratory environments. The results provided by them are the usually accurate and precise. A method that is used often is the measurement of stress hormones like cortisol, adrenaline and others that are released and measurable in the saliva and blood. Measuring these indicators the stress can be determined [15]. The main drawback of these approaches is the limited mobility and the lack of real time detection. Also the method is invasive and expensive due the necessity of laboratory equipment. 3 System architecture The system architecture should reflect the possibility to connect a sensor to a light weighted mobile unit with preprocessing, storing and communication capability. .The focus in this architecture is on ECG signals extraction, because an accurate stress detection should be possible with capturing only this biological parameter. One of the advantages of an ECG sensor is that the sensor will not interfere with other sensors because the ECG sensor does only measures the propagated electric field of the heart. In a second step, it should be flexible and open to wear two ECG sensory without having interferences. At a future point in time, more parameters should be tracked with the system. For the first prototype, we used a smartphone as the communication platform for providing connectivity to external servers. The general system architecture is shown in Figure 2. Figure 2 System architecture for collecting, pre-processing and visualizing of biological data. The ECG e-Health kit module is in charge of continues recording and measuring of biological data; the preprocessing module is in charge of receiving, processing and storing the signal, and the user interface module is in charge of giving feedback the user. The ECG module computes the electrical impulses obtained from the electrodes. In this case, the e-Health kit 40 module is an ECG module with three electrodes. The ECG module generates the ECG wave as an analogue output to the pre-processing module. Currently the microcontroller is only used for digitalising, AD converting the analogue wave of the ECG, prepossessing and filtering the data. We use the digital signal for calculating the heart rate (HR) and the RR interval. The RR interval is defined as the interval between two R peaks as shown in Figure 3 and generally is used for diagnostic [18]. Other uses of ECG data is the identification of persons using unique data that can be found in the ECG signal [19]. Figure 3 shows us the RR interval. The RR interval is defined as the R peak of a QRS complex to the next R peak (1)(the time between two consecutive R waves in an ECG). We use the RR interval or the HR to calculate the heart rate variability (HRV). The HRV is later used to determine the stress. The HRV correlates strong with the respiration sinus as it is shown in [20]. 𝑅𝑅!"#$%&'( = 𝑅! − 𝑅!!! , (1) We calculate the HRV by examining the relations between two heart beats. We can assume that the HRV stays constant (constant to the respiration) when a person is not stressed and when a person is stressed the value will change stronger. The interval of values of the ECG used in our system is from 0 to 350 mV. X axis is in msec. To reduce the resources needed for detecting the R peaks and for the calculation of the RR interval we defined a threshold of 250 mV. This means we only consider values bigger than 250 mV. Figure 3 Definition of an RR interval. The difference between an RR interval and the HR is that the HR is calculated counting and approximating the number of heart beats per minute and the RR interval indicates the duration between two heart beats. The RR interval changes also from one to other beat. The stress is later determined using the RR Interval and the HR. Later on with help of a visualization device like a smartphone or a prototyping board the user can be informed about his current status. In privies prototypes a traffic light interface display has been used. The advantage of this interface is that the information is easy to understand and the realization can be part of the board or via a small app in the smart phone. 4 𝑅! > 250!" ,(2) The criteria for a peak is that R has to be a maxima (5). After a peak was detected we wait for 100 msec before we start scanning again for R peaks. 𝑅!!! < 𝑅! ⋀ 𝑅! > 𝑅!!! !!!" 𝑅! = 𝑅! ,(3) As mentioned before, the RR interval is defined as the time between two consecutive R waves in an ECG. After the RR is calculated we correlate the RR intervals and compute the HRV. If the results are visualised we obtain a two dimensional space with the correlation plot. See Figure 4. The values for the plot are defined as Stress detection method Our method that was used for detecting stress is based on the ECG signal. There are a lot of different possibilities to capture biological parameters, but the ECG is easier to capture than other biological parameters and ECG is les subjective to external influences. Based on the system architecture proposed before, the prototype is able to direct access and process the sensor data in real time. The ECG also called EKG describes the he electrical characteristic of the heart 𝑋, 𝑌 = {𝑅𝑅! , 𝑅𝑅!!! }, (4) Figure 4 shows a height in the centre of the plot (800 msec for the RR interval). In this case the diagram indicates Figure 4 Correlation plot of RR intervals that visualizes the HRV and their self-similarity. 41 Figure 5 Candidate left (yellow) with high HR and no stress. Candidate right (blue) with low HR but stress. a lower stress level. If the values would spread wider, it would indicate that the person is under stress. The variability can be expressed as a product of the derivations SD! andSD! . 𝑆𝐷!,! = 𝑣𝑎𝑟 𝑥! → 𝑥! = 5 𝑥! ± 𝑥!!! 2 logue output of the module is used as input for the second module: the pre-processing module. This module has several core tasks: • Reception of input data stream • Pre-processing/pattern detection • Storing of data • Pushing of data to an external server The current implementation has been realized on an Arduino UNO R3 prototyping board. The pattern recognition algorithm has been implemented on this board. For storing proposes a micro SD module has been added. The pushing of data has been implemented via different channels: USB, Bluetooth and via a Smartphone. (see Figure 6) , (5) Prototype and first results 5.1 Prototype According to the system architecture described in chapter 3 the prototype has been implemented Figure 1. As e-Health kit module an ECG module has been used where three elec- 5.2 Stress benchmarking Currently, we are using two methods for inducing Stress on the volunteers. Firstly, we used the Trier Social Stress Test [10] because this method for inducing stress can be easily replicated in our installations. Secondly, and we used a driving simulator to create stress while driving a competition. The Trier Social Stress Test was realised in three phases (anticipation period, presentation period and cool down period), the duration of each was 5 minutes. During the test, the volunteer has to prepare and make a small presentation on a random topic. In the experiment, the used driving simulator induces stress using two different mechanisms. A reward system (Points) is introduced that rewards the volunteer for fast and complex driving manoeuvres. The difficultly level increases over time. The consequence of this system is that a fast driver usually makes more complicated manoeuvres to earns more points but at the same time increasing the risk of losing all points earned in case of a mistake. Figure 6 Arduino UNO with ECG module. trodes are connected to the body of a person (like in traditional ECG). This kit has been a customized development but in principle it is working like any other ECG. The ana- 42 5.3 Results of the experiment All candidates have been volunteer students aged between 23 and 28, none of them were smokers, alcoholics or have a pacemaker. The methods used in this work assume that the candidates do not have suffered from cardiac problems or mental anomalies. The obtained data from the experiment has been processed and visualised using the presented approach. The result of two volunteers with special characteristics is shown below. The first volunteer has a lower heart rate but is being under constant stress and the second volunteer has a higher heart rate but is not under stress. Both volunteers where analysed for the same duration of time. The data of both candidates is visualised in Error! Reference source not found.. The right dataset clearly shows that the values in blue are wider spread than the values of the candidate visualised in yellow (left). The spreading of the blue values is caused by the stress (see Figure 1). Stress influences the heart rate and as the result the variation between two heartbeats becomes bigger. The mean values of the blue volunteer are between 0.7 and 0.9 sec for the RR interval (heart rate interval is between 66.7 bpm and 85.7 bpm). The main values of the yellow volunteer are between 0.45 sec and 0.6 sec (130 bpm and 85 bpm). 6 References [1] X. V. N. V. K. T. C. M. A. D. L. Arthur S. P. Jansen, „Central command neurons of the sympathetic nervous system: basis of the fight-or-flight response,“ in Science , Bd. Vol. 270 , 1995, pp. 644-646. [2] WHO, „Cross-national comparisons of the prevalences and correlates of mental disorders,“ Bulletin of the World Health Organization, pp. 413-426, 2000. [3] J. C. A. R. S. a. N. M. M. J. Martínez Fernández, „A Sensor Technology Survey for a Stress Aware Trading Process,“ IEEE Trans. On Systems, Man and Cybernetics Part C: Applications and reviews, Bd. 42, Nr. 6, pp. 809 - 824, 11 2012. [4] J. Martínez Fernández, J. C. Augusto, R. Seepold und N. Martínez Madrid, Why Traders Need Ambient Intelligence, Germany: Springer Berlin Heidelberg, 2010. [5] J. Martínez Fernández, J. C. Augusto, G. Trombino, R. Seepold und N. Martínez Madrid, „Self-Aware Trader: A New Approach to Safer Trading,“ in Journal of Universal Computer Science, 2013. Conclusion and future work The work presents is a system that still under development but is shows a system architecture and an algorithm used for calculating stress based on the RR intervals and HRV. The system is designed to be light weighted, to be integrated in mobile, cheap and easy to use devices like a smartphone or other mobile (embedded) devices. The algorithm was developed to have a small footprint and that it can be ported to small prototyping boards like Arduino. The results of the experiment shows that the detection of stress is successful even when different conditions occur, like a naturally low or high heart rate. 7 [6] K. Orth-Gomér, S. Wamala, M. Horsten , K. SchenckGustafsson, N. Schneiderman und M. Mittleman, „Marital stress worsens prognosis in women with coronary heart disease: The Stockholm Female Coronary Risk Study,“ in Journal of the American Medical Association, 2000. [7] Y. Mei, M. D. Thompson, R. A. Cohen und X. Tong, „Autophagy and oxidative stress in cardiovascular diseases,“ in Biochimica et Biophysica Acta (BBA) Molecular Basis of Disease, 2015. [8] T. Kidd, L. A. Carvalho und A. Steptoe, „The relationship between cortisol responses to laboratory stress andcortisol profiles in daily life,“ Biological Psychology, pp. 34-40, 25 02 2014. Future work Some of the main problems from the developed system is the sensibility of movements for example during sports, and interference sensibility of the wires of high frequency sources for example energy lines. These problems can generate strong interference and artefacts in the signal. Possible solutions for these problems are adding more filtering or changing to another sensor that does have not these limitations. As an alternative for an ECG approach a pulse oximeter can be used but this option but this still has to be tested. An untouched point in this approach is how the verification of the results and the reduction of false positives can be realized. Another question that has to be answered is if the person has an influence the results/approach and if this is the case how can this be managed? Is calibration of the sensor a solution for the problem? [9] Å. Torbjörn, A. John, L. Mats, O. Nicola und K. Göran, „Do sleep, stress, and illness explain daily variations in fatigue?,“ Journal of Psychosomatic Research, pp. 280-285, 20 01 2014. [10] C. Kirschbaum, K.-M. Pirke und D. H. Hellhammer, „The 'Trier Social Stress Test'- A Tool for Investigating Pyschobiological Stress Responses in a Laboratory Settings,“ Neuropychobiologie, pp. 78-81, 1993. [11] J. R. Stroop, „Studies of interference in serial verbal reactions,“ Journal of Experimental Psychology, pp. 43 643-662, 1935. [23] T. Akerstedt, A. Knutsson, P. Westerholm, T. Theorell, L. Alfredsson und G. Kecklund, „Sleep disturbances, work stress and work hours,“ Journal of Psychosomatic Research, pp. 741-748, 5 March 2001. [12] N. Martinez Madrid, J. Martinez Fernandes, R. Seepold und J. C. Augusto, „Ambient assisted living (AAL) and smart homes,“ Springer Series on Chemical Sensors and Biosensors Volume 13, pp. 39-71, 2013. [13] S. D. Gunawardhane, P. M. De Silva, D. S. Kulathunga und S. M. Arunatileka, „Non Invasive Human Stress Detection Using Key Stroke Dynamics and Pattern Variations,“ in International Conference on Advances in ICT for Emerging Regions (ICTer), Colombo, 2013. [14] L. Vizer, L. Zhou und A. Sears, „Automated stress detection using keystroke and linguistic features: an exploratory study,“ Int. J. of Human-Computer Studies, Bd. 67, Nr. 10, pp. 870-886, 2009. [15] H. Juliane und S. Melanie, „The physiological response to Trier Social Stress Test relates to subjective measures of stress during but not before or after the test,“ Psychoneuroendocrinology, Volume 37, Issue 1, 2012. [16] J. A. Healey und R. W. Picard, „Detecting Stress During Real-World Driving Tasks Using Physiological Sensors,“ in Intelligent Transportation Systems, IEEE Transactions on (Volume:6 , Issue: 2 ), 2005. [17] W. D. Scherz, J. A. Ortega, N. M. Madrid und R. Seepold, Heart Rate Variability indicating Stress visualized by Correlations Plots, Bd. 9044, Granada: Springer International Publishing, 2015, pp. 710-719. [18] D. Dubin, Rapid Interpretation of EKG’s, Tampa, Florida: COVER Publishing Co., 2000. [19] S. A. Israel, J. M. Irvineb, A. Chengb, M. D. D.Wiederholdc und B. K. Wiederholdd, „ECG to identify individuals,“ Pattern Recognition, pp. 133142, 21 05 2004. [20] J. A. Hirsch und B. Bishop , „Respiratory sinus arrhythmia in humans: how breathing pattern modulates heart rate,“ in American Journal of Physiology - Heart and Circulatory Physiology, New York, 1981. [21] D. Leger, „The cost of sleep-related accidents: A report for the National Commission on Sleep Disorders Research,“ Sleep, p. 84–93, 17 May 1995. [22] J. de Miguel-Díez, P. Carrasco-Garrido, R. JiménezGarcía, L. Puente-Maestu, V. Hernández-Barrera und A. López de Andrés, „Obstructive sleep apnea among hospitalized patients in Spain, analysis of hospital discharge data 2008–2012,“ Sleep and Breathing, 8 January 2015. 44 SmartDriver: An assistant for reducing stress and improve the fuel consumption V. Corcoba Magaña and M. Muñoz Organero Dpto. de Ingeniería Telemática Universidad Carlos III [email protected] Abstract increase may be due to multiple causes as: deceleration lane, a call, traffic density, etc. There are many proposals to detect stress and measure the workload [Healy and Picard, 2000] [Healy and Picard, 2005]. Most of them are based on physiological features such as electromyogram, electrocardiogram, respiration, and skin conductance. In [Healy and Picard, 2000] the authors propose to use pattern recognition techniques to detect stress in automobile drivers. They employed four physiological sensor signals: electromyogram, galvanic skin, and respiration through chest cavity expansion. They were able to detect the stress by 86.6% (combining all the features). The success rate was 62.2% using a single sensor. Reference [Zhai and Barreto, 2006] presented an algorithm based on support vector machines to classify the affective states between “stress” and “relaxed”. They monitored users using the following non-invasive and non-intrusive sensors: Galvanic Skin Response, Blood Volume Pulse, Pupil Diameter and Skin Temperature. In this case the percentage of success was even a 90.10%. Reference [Rani et al., 2002] proposed a real-time method for stress detection based on heart rate variability (HRV) using Fourier and wavelet analysis. [Ji et al., 2004] presented a probabilistic model for detecting fatigue based on visual characterize such as eyelid movement, gaze movement, head movement, and facial expression. This method was extended to detect “Nervous” and “Confused” affective states. This work demonstrates the suitability of Bayesian Network for information fusion and estimation of the stress level. The main problem in this research topic is that there are no solutions to reduce the driver stress. The majority of the researchers are focused on detecting the stress level of the driver. On the other hand, most of the proposals are only validated through simulators. In this paper, we propose a system that makes recommendations in order to reduce the driving workload. These tips are constructed taking into account: The stress, safety and fuel consumption are variables that are strongly related. If the stress is high, the driver is more likely to make mistakes and have accidents. In addition, he or she will make decisions at short notice. The acceleration and deceleration increases, minimizing the use of energy generated by the engine. However, the stress can be reduced if we provide information about the environment in advance. In this paper, we propose a driving assistant which issues tips to the driver in order to improve the stress level. These tips are based on speed. The solution estimates the optimal average speed for each road section. In addition, the solution provides a slowdown profile when the user is close to a stress area. The objective is the initial vehicle speed minimizes the stress level and the sharp acceleration (positive and negative). In addition, the system employs gamification tools to encourage the driver to follow the recommendations. On the other hand, the proposal provides information about the driver and the road state in an anonymous way in order to improve the management of the city traffic. The proposal is run on an Android device and the driver stress is estimated using non-intrusives sensors and telemetry from the vehicle. 1 Introduction Most of traffic accidents are due to human errors. In [National Highway Traffic Safety Administration, 2008] risk factors of traffic accidents are categorized as follows: human factors (92%), vehicle factors (2.6%), road/environmental factors (2.6%), and others (2.8%). Fatigue and stress are the cause of many accidents. Stress can be defined as a change from a calm state to an excitation state in order to preserve the integrity of the person. Most stressors are intellectual, emotional, and perceptual. There are two types of stress: eustress and distress. Eustress is a good stress that improves performance and motivates. The stress is also classified as “eustress” when it leads us to a favorable state. In opposition, if the stress is negative and causes a degradation of performance, it is called "distress". This type of stress is due to an increase in the workload. This 45 Driver habits Vehicle Telemetry Road Information Driver Profile Data Layer Driver Features Vehicle Telemetry Road Conditions Location Road Pictures Pre-Processing Layer Select Driving Samples Driving Samples Driving Database Processing Layer Feedback Recommendations Rankings GreenHouse Gases Badges Fuel Consumption Deceleration Optimal Pattern Average Speed Information Traffic Incidents Stress Region Traffic Signs Unusual Values while driving Fig. 1. Schema of the driving assistant. 2.1 Data Acquisition System 2 SmartDriver Assistant We need a lot of information in order to make recommendations that will improve safety and fuel consumption. This information can be classified into three groups: driver features, life style tracking, and driving tracking. There is currently a large number of sensors (fixeds and mobiles) which allow us to monitor all user activity. The information captured is employed to build recommendations that reduce pollution caused by vehicles and improve the safety. Figure 1 captures a schema of the proposal. The objective of the recommendations is smooth driving. This type of driving improves safety and reduces stress because the driver has more time to make decisions. In this case, the risk of accidents decreases. On the other hand, fuel consumption and the emission of gaseous pollutants also improves because the power produced by the engine is used. Then, we are going to describe the elements of the solution. Driver features They affect both fuel consumption and safety. In the previous section, we saw how the appearance of fatigue and stress occurs gradually and is strongly related to the driver. The age, gender, driving experience and personality are factors that determine the beginning of fatigue and stress. In previous research studies, many authors have highlighted that older drivers experience fatigue before young drivers. On the other hand, the women stop driving when they feel sleep. However, men are still driving. Personality is another element that influence. Extroverted people are more likely to 46 fall asleep. On the other hand, people uninhibited make more mistakes during the driving without being drowsy and the fuel consumption is higher. In our case, we are going to take into account the driving style (aggressive, normal or efficient). The driver profile can be obtained objectively analyzing the vehicle telemetry. Life Tracking Driver activity affects his or her stress level, fatigue and health. It is also frequent that drivers worsen the driving style from the point of view of fuel consumption when they have not rested enough. The proposed solution monitors the following variables: Sleeping Time: Many research works conclude sleep has a strong relationship with the traffic accidents and the tiredness. If driver has not slept enough hours, the solution must adapt the recommendations to maximize safety. For example, warn the user in advance when he or she is approaching a crossroads. Awakened Time: Sleep-related factors such as sleep deficit, sleep fragmentation and sleep apnea also increase accident risk. In [Young et al., 1997], the authors studied the effects of the sleep-disordered in the probability of accidents. The conclusions were that you people with apneas are more likely to have accidents Working time: If the driver is sitting many hours at the same location, it could indicate that he or she is in the workplace. This is another variable related to fatigue. The trip from home to work is different that return trip from the point of view of safety. Acceleration and deceleration: The acceleration (positive and negative) may indicate the presence of stress or fatigue. The cause of sudden accelerations could be the driver wants to arrive early to the destination, while a sharp slowdown may mean that he or she was asleep. Standard deviation of vehicle speed: Maximize the driving at constant speed has a positive effect on fuel consumption. In this situation, there is no acceleration resistance force. Therefore, the tractive force required to move the vehicle will be less. On the other hand, if the driver has to be changing the speed constantly, the probability of making driving mistakes increases as well as the stress level. Positive Kinetic Energy (PKE) measures the aggressiveness of driving and depends on the frequency and intensity of positive accelerations [Firth and Cenek, 2012]. A low value means that the driver is not stressed and drives smoothly. An unusual high value may indicate that driver are driving in an area that requires special attention such as acceleration lanes or roundabouts. It is calculated using the following equation: 𝑃𝐾𝐸 = 𝑑 (1) where v is the vehicle speed (m/s) and d is the trip distance (meters) between 𝑣𝑖 and 𝑣𝑖−1 . Driving Tracking The parameters that are monitored can be classified into three groups: driver, vehicle, and environment. Driver: Heart Rate Variability: Stress, fatigue and sleepiness has a great impact on the automatic nervous system. HRV signals are employed as an indicator of ANS neuropathy for normal, fatigued and drowsy states because the ANS is influenced by the sympathetic nervous system and parasympathetic nervous system. This indicator is not intrusive. A high variability means the driver has stress. In opposition, a low variability could be since the driver is tired or asleep. ∑(𝑣𝑖 − 𝑣𝑖−1 )2 Skin Temperature: It changes due to the activity of the central and peripheral nervous system. The emotional nervous excitement affects to the sweat glands. If the driver is relaxing, sweats will decrease. 47 Time: Fuel consumption is increased at rush hours. The driver has to accelerate and slow down more frequently. In addition, the engine is switched on during more time. This situation causes stress, increasing the accidents risk. On the other hand, night driving maximizes the likelihoods of sleep despite he or she has previously slept. This is due to the sleep cycle. Traffic state: When traffic is heavy, the stress level increases. In these cases, the tips must be adapted in order to avoid acceleration and deceleration. Weather conditions: The number of vehicles on the road grows when the weather conditions are bad, increasing the likelihood of traffic incidents. Moreover, the roll coefficient changes. Therefore, the advice have to take into account that factor. In addition, many studies highlight that when it is hot, the fatigue appears before. On the other hand, cognitive capacity of the driver worsens when it is cold. Traffic signs: there are a great number of traffic signs which force the user to stop or decrease speed. Therefore, they cause stress. In addition, sometimes the visibility conditions are not good and the driver cannot take decisions in advance. The result is an increase in fuel consumption due to sharp slowdowns and even traffic accidents. 2.3 Stress region On the road there are areas in which increase the driver workload. The causes can be: curves, traffic signs, roundabouts, crossings, acceleration lanes, departure lanes and road topology. In this section, we propose an algorithm to reduce the stress level in this type of regions. The proposal estimates an optimal slowdown pattern when drivers are approaching to a stress area. The objective is that the driver come into the stress region driving at a speed that minimizes workload. Slope: energy demand depends on this variable. If the slope is ascending, the tractive force required to move the vehicle will increase. On the contrary, if the slope of the road is down it will act as a force that helps to move the vehicle. Devices We employ the following devices to monitor the driver and the vehicle: Mobile Device: Current mobile devices have a large number of sensors that allow us to obtain information about the user and the environment. In this work, we use the camera to detect traffic signs. It is also used to take a picture when the vehicle is located in a stress area. On the other hand, GPS is used to obtain the vehicle location and the vehicle telemetry: speed, acceleration, deceleration, the percentage of time driving at constant speed, etc. The Internet connection is employed to obtain information about the road state and weather conditions. Also, it allows to send data (most stressed users, traffic incidents and unusual telemetry values) that can be used by third parties to improve the management of traffic. Microsoft Band: This wereable is cross-platform and provides an SDK for Windows Phone, Android, and IOS. It allows us to estimate the stress level using multiple sensors: Age Driving Experience Profile of the driver (Aggressive| Normal| Efficient) Gender (Male| Female) Weather Traffic Prediction of driving workload A multi-layer perceptron (MLP) [Rumelhart et al., 1985] is employed in order to predict the driver workload. It is based on the results obtained by other drivers with similar characteristics. This algorithm is an artificial neural network that has multiple layers and whose main advantage is to allow non-linearly-separable problems. Neural networks were proposed in the 1940, when Warren McCulloch (a psychiatrist and neuroanatomist) and Walter Pitts (a mathematician) explored the computational capabilities of networks made of very simple neurons [Widrow and Hoff, 1960]. Later, in 1943, [Kennedy and Eberhart] introduced the perceptron, the simplest form of a neural network. The perceptron consists of a single neuron with adjustable synaptic weights and a threshold activation function. This proposal guaranteed the convergence only if the problem was linearly separable due to the basic properties of the perceptron which separate entries into two outputs. The basic MLP structure consists of an input layer, output layer and one or more hidden layers. The number of layers determines the kind of problem that we can solve. The single layer perceptron is limited to calculating a single line of separation between classes. On the other hand, a three layer perceptron can produce arbitrarily shaped decision regions. The single layer perceptron is limited to calculating a single line of separation between classes. On the other hand, a three layer perceptron can produce arbitrarily shaped decision regions (Kolmogorov theorem), and are capable of separating any classes. Each layer has a set of neurons. The number of neurons depends on the type of problem to be solved. The neurons are connected with other neurons using weighted connections. Figure 2 captures the neuronal network to estimate the driving workload. Figure 3 shows a schema of the Optical heart rate monitor Three-axis accelerometer Gyrometer GPS Microphone Ambient light sensor Galvanic skin response sensors UV sensor Skin temperature sensor Capacitive sensor 2.2 Retrieving Driving Samples The degree of stress is not the same for all users, even if they are driving under equal conditions. As mentioned above, there are a multitude of factors such as age, gender, and driving experience that affect stress. We have to take into account all these factors to improve the accuracy of recommendations. Tips have to be personalized for each driver. E.g.: an old driver feels more stress than a young when they drive at high speed. In this case, we propose to build a cluster considering the following driver features and the road state: 48 Fig. 2. Multilayer Perceptron to estimate the heart rate solution. The proposal estimate the optimal initial speed based on the previous driver behavior using the neural network. A deceleration profile is then calculated if the driver must slow down. Driving Behavior Deceleration Stress Region Profile Optimal Vehicle Initial Speed Speed Fig. 3. Proposal to reduce driver stress in stress areas. go out from the road. However, the optimal speed from the point of view of stress and safety is a dynamic value. It changes depending on age, gender, physical activity, level of fatigue, driver skill, traffic and weather conditions, etc. Particle Swarm Optimization (PSO) is used to estimate the average speed for each section road. It was proposed by Kennedy and Eberhart en 1995 [Kennedy and Eberhart, 1995]. It is an evolutionary algorithm based on the social behavior of bird flocks. The PSO algorithm maintains multiple potential solutions at one time. Each solution is represented by a particle in the search space. It has the following elements: Position: In our case is the recommended speed. Pbest: This is the best position on the current particle (speed that minimizes the heart rate) Gbest: It is the best position among all particles Speed: Is calculated using equation 2. It determines what will be the next speed of the particle. 2.4 Optimal Average Speed Speed is a factor that is closely related to demand attention from the driver. When the speed is high, the driver has less time to make decisions. This causes an increase in the stress level and the likelihood of traffic accidents. In this paper we propose an algorithm to estimate the optimal speed. On the roads, we can find road signs which recommend a speed. These tips are only based on the road topology (slope, angle, and the road width). Its aim is to prevent the vehicle 𝑣𝑖 (𝑡 + 1) = 𝑤𝑣𝑖 (𝑡) + 𝑐1𝑟1 ∗ (𝑃𝑏𝑒𝑠𝑡(𝑡) − 𝑥𝑖 ) + 𝑐2𝑟2 ∗ (𝐺𝑏𝑒𝑠𝑡(𝑡) − 𝑥𝑖 (𝑡)) (2) where vi(t) is the particle’s velocity at time t, w is the inertia weight, xi(t) is the particle’s position at time t, Pbest is the particle’s individual best solution as of time t, and gBest(t) is Fig. 1. Magnetization as a function of applied field. Note that “Fig.” is abbreviated. There is a period after the figure number, followed by two spaces. It is good practice to explain 49 the significance of the figure in the caption. the swarm’s best solution as of time t, c1 and c2 are two positive constants, and r1 and r2 are random values in the range [0-1] The particles “fly” or “swarm” through the search space to find the minimum value. During each iteration of the algorithm, they are evaluated by an objective function to determine its fitness. Next position is calculated by equation 3 𝑥𝑖 (𝑡 + 1) = 𝑥𝑖 (𝑡) + 𝑣𝑖 (𝑡 + 1) accomplish a certain behavior or to compare the performance of users. Achievements do not normally imply monetary compensation, but they are based on an emotional reward. It has a positive impact on the user to reach a pre-set of objectives and is based on the concept of "status". For this reason, we have incorporated the following achievements to our smart-driving assistant: (3) 1. 2. 3. Complete a lap without accelerating sharply Complete a lap without decelerating sharply Complete a lap with a low value of PKE (Positive Kinetic Energy) 4. Complete a lap following the deceleration pattern provided by the assistant 5. Complete a lap driving at the average speed recommended 6. Get 5 points in the Driving Style/Safe Ranking 7. Get 7 points Ranking Driving Style/Safe Ranking 8. Get 10 points in the Driving Style/Safe Ranking 9. Position in the top 5 in the Driving Style ranking 10. Position in the top 5 in the Safe Driving Ranking 11. First position in the Driving Style Ranking 12. First position in the Safe Driving Ranking. where xi(t) is the current particle’s position and vi(t + 1) is the new velocity. The definition of the fitness function is very important in this type of algorithms. In our case is a multi-layered perceptron (MLP). The input variable are the following: Average Speed, number of high accelerations (positive and negative), standard deviation of vehicle speed, positive kinetic energy, sleeping time, awakened time, working time, and temperature. The challenge is to minimize the stress level. Therefore, the output is the heart rate. Fitness Function is trained using driving samples obtained by other drivers under similar conditions. 2.4 Providing feedback 2.5 Information provided by the assistant As we saw in previous works, it is important to encourage and motivate the driver in order to he or she follows the recommendations of the assistant. We employ techniques of gamification to achieve this goal. Gamification can be defined as the use of game design elements in non-game contexts such as learning environments. The idea is to use concepts from games like: the challenge, the competitiveness and progression in order to motivate the user for improving the driving style. In our case, the system provides the following feedback when the driver completes the trip: The driving assistant described in this paper is one of the elements of the HERMES project [HERMES, 2015]. The objective of this project is to integrate different agents and infrastructure elements of a Smart City in a cooperative and massive system that optimizes urban movements, minimizes the emission of pollutant gases, maximizes the well-being of the citizens and offers new opportunities for business on the Smart City. In this context, the vehicles act as mobile sensors that collect data and send them to a central system. This central system labels the data semantically and analyzes them using artificial intelligence algorithms. The results are recommendations to improve the management of the city. For example, it is possible to predict the traffic or infer which is the most polluted area of the city. In addition, the HERMES project allows access to these information flows in real time following the philosophy of Linked Open Data. The aim is to build an ecosystem for business development in the Smart City. SmartDriver assistant provides the following information: Driving style ranking: the position is obtained using a fuzzy logic system. This system evaluates the driving from the point of view of safety and energy saving. The output depends on variables such as: acceleration, deceleration, positive kinetic energy, etc. If the user is driving smoothly, he or she will get a high score. A smooth driving influences positively both fuel consumption and safety. We employ fuzzy logic because it allows us to simulate the human knowledge when carrying out certain tasks such as driving. The objective is to model the behavior of an efficient and safe driver. Traffic incidents: Its number has increased in recent years due to the rapid growth of the metropolitan population and the number of vehicles in circulation. A traffic incident is defined as a non-recurrent and unpredictable event that interrupts the flow of normal traffic by reducing the capacity of the road [Srinivasan et al., 2003]. Traffic incidents include events such as: accidents, disabled vehicles, bad weather conditions, rock falls, road works, and malfunction of traffic signs. The solution detects traffic accidents taking into account the usual driving profile of the driver and the real time telemetry. Safe Driving Ranking: The position in this ranking depends on the degree of compliance with safety recommendations provided by the assistant. Green House Gases and Fuel Consumption: Driver can compare the result with the value obtained in other similar journeys (road type, weather, and traffic) made in the last month. Badges: They are an important element for many people in order to encourage them to save fuel and to drive safely. Achievements are a traditional gamification method used to 50 Traffic signs: In regions where there are many traffic signs, the stress level and fuel consumption increases. If the driver know them in advance, he or she can adjust the speed, avoiding sudden downturns. The result is that the energy generated by the engine is maximized and the driving mistakes are reduced. In the literature there are many methods to detect traffic signs. In our case, we use an algorithm with three stages: References [National Highway Traffic Safety Administration, 2008] National Highway Traffic Safety Administration. (2008). National motor vehicle crash causation survey: Report to congress. National Highway Traffic Safety Administration, Washington, DC, DOT HS, 811, 059. [Healy and Picard, 2000] J. Healy and R. Picard, Smartcar: detecting driver stress. 3rd Int’l Workshop on Nonlinear Dynamics and Synchronization (INDS), 2000. [Healy and Picard, 2005] J. Healy and R. Picard. Detecting Stress During Real-World Driving Tasks Using Physiological Sensors. IEEE Transactions on Intelligent Transportation Systems, vol. 6, no. 3, 2005. [Zhai and Barreto, 2006] A. Zhai and A. Barreto. Stress Detection in Computer Users Based on Digital Signal Processing of Noninvasive Physiological Variables. Engineering in Medicine and Biology Society, 2006. EMBS '06. 28th Annual International Conference of the IEEE, vol., no., pp.1355,1358, Aug. 30 2006-Sept. 3 2006. doi: 10.1109/IEMBS.2006.259421 [Rani et al., 2002] P. Rani, J. Sims, R. Brackin, and M. Sarkar. Online stress detection using psychophysiological signals for implicit human-robot cooperation. Robotica, vol. 20, no. 6, pp. 673–685, Nov. 2002. [Ji et al., 2004] Q. Ji, Z. Zhu, and P. Lan,. Real-time nonintrusive monitoring and prediction of driver fatigue. IEEE Trans. Veh. Technol., vol. 53, no. 4, pp. 1052–1068, Jul. 2004. [Young et al., 1997] T. Young, J. Blustein,, L. Finn and M. Palta, 1997. Sleep-disordered breathing and motor vehicle accidents in a population-based sample of employed adults. Sleep 20, 608–613. [Firth and Cenek, 2012] William Frith and Peter Cenek. AA Research: Standard Metrics for Transport and Driver Safety and Fuel Economy, Opus International Consultants Central Laboratories, November 2012. [Rumelhart et al., 1985] Rumelhart, David E., Geoffrey E. Hinton, and Ronald J. Williams. Learning internal representations by error propagation. No. ICS-8506. California, 1985. [McCulloch et al., 1943] McCulloch, W. S. and Pitts, W. H. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115133. [Rosenblatt, 1958] F. Rosenblatt. The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review 65.6 (1958): 386. [Widrow and Hoff, 1960] B. Widrow and M. E. Hoff. Adaptive switching circuits,” WESCOM Conv. Rec., pt. 4, pp. 96-140, 1960. [Kennedy and Eberhart, 1995] J. Kennedy, R. Eberhart. Particle swarm optimization. Neural Networks, 1995. Proceedings., IEEE International Conference on , vol.4, no., Shape: We look for geometric figures which coincide with traffic signs. Color detection: We choose shapes which contain colors present at traffic signs Viola and Jones: This algorithm is applied on the shapes selected in the previous step. Stress Region: There are road sections where driving is more difficult due to the visibility problems (curve), topology of the road (roundabout) or the activities that driver should make (deceleration lane, acceleration lane). Data Envelopment Analysis [Charnes et al., 1985] is used to estimate the efficiency of driving and the stress level in each area. Data envelopment analysis (DEA) is a linear programming methodology to estimate the efficiency of multiple decision making units (DMUs) when the production process presents a structure of multiple inputs and outputs. This method was proposed by Charnes, Cooper, and Rhodes [11]. In our proposal, each DMU represents a different driving samples obtained under similar conditions (time, weather, traffic, sleeping time, and road type) by the same driver. The aim is to detect the road points where the driver workload is high and fuel consumption increases. This algorithm compares different regions by assigning them an efficiency value. If it is low, it means that it is a stress area. Unusual driving values: The driving assistant presented in this paper is continuously monitoring the driver behavior driver. When it detects an exceptional value, it is immediately sent to a central system (HERMES). These values can be: sudden accelerations (positive and negative), high speed, standard deviation of vehicle speed, heart rate, etc. This information can be used to improve traffic management and safety in a Smart City. Acknowledgments The research leading to these results has received funding from the “HERMES-SMART DRIVER” project TIN201346801-C4-2-R within the Spanish "Plan Nacional de I+D+I" under the Spanish Ministerio de Economía y Competitividad and from the Spanish Ministerio de Economía y Com-petitividad funded projects (co-financed by the Fondo Europeo de Desarrollo Regional (FEDER)) IRENE (PT-2012-1036370000), COMINN (IPT-2012-0883-430000) and REMEDISS (IPT-2012-0882-430000) within the INNPACTO program. 51 pp.1942,1948 vol.4, Nov/Dec 1995. doi: 10.1109/ICNN.1995.488968 [HERMES, 2015] HERMES project. URL: http://madeirasic.us.es/hermes. Last access: June 2015 [Srinivasan et al., 2003] D. Srinivasan, L. Wee Hoon, R.L. Cheu. Traffic incident detection using particle swarm optimization. Swarm Intelligence Symposium, 2003. SIS '03. Proceedings of the 2003 IEEE , vol., no., pp.144,151, 2426 April 2003. [Charnes et al., 1985] A Charnes, W.W Cooper, B Golany, L Seiford, J Stutz, Foundations of data envelopment analysis for Pareto-Koopmans efficient empirical production functions, Journal of Econo-metrics, Volume 30, Issues 1–2, October–November 1985, Pages 91-107, ISSN 0304-4076. [Charnes et al., 1978] A. Charnes, W.W. Cooper and E. Rhodes (1978), "Measuring the Efficiency of Decision Making Units," European Journal of Operational Research 2, pp.429-444. 52 Plataforma para gestión de información de ciudadanos de una SmartCity Jorge Yago Fernández1, Álvaro Arcos García1, Juan Antonio Álvarez-García1,Juan Antonio Ortega Ramírez1, Jesús Torres1, Jesús Arias Fisteus2, Víctor Córcoba Magaña2, Mario Muñoz Organero2, Luis Sánchez Fernández2 1 Universidad de Sevilla Depto. Lenguajes y Sistemas Informáticos Avenida Reina Mercedes S/N, 41012 2 Universidad Carlos III de Madrid Depto. Ingeniería Telemática, Avda. de la Universidad, 30, 28911 1 {jorgeyago,aarcos,jaalvarez,jortega,jtorres}@us.es 2 {jaf,vcorcoba,mario.munoz,luiss}@it.uc3m.es Abstract El objetivo de este trabajo es desarrollar una plataforma que no sólo sea útil a los ciudadanos, sino que además sirva de base para realizar posteriores estudios con los datos recogidos, de modo que se puedan analizar éstos para tomar mejores decisiones, anticiparse a los problemas para resolverlos de forma proactiva y coordinar los recursos para actuar de forma eficiente. Aunque, actualmente, existen plataformas capaces de analizar los datos recogidos para sugerir actividades para mejorar nuestra salud (Zenobase1, Microsoft Health2 o Google Fit3), el objetivo de ésta es, además, proveer de datos anónimos a profesionales que puedan analizarlos y obtener conclusiones, dando la posibilidad de incluirlas en una base de conocimiento de la propia plataforma y que ésta sea capaz de generar recomendaciones automáticamente. Una plataforma similar aunque con diferente concepción es Apple Research Kit4 ya que Apple permite acceder a los datos de una determinada aplicación y nuestra plataforma permite acceder a todas la información subida por aplicaciones y dispositivos. Para la recopilación de los datos, utilizamos dispositivos vestibles como los pulseras o relojes inteligentes o bandas de pecho, que están teniendo bastante difusión y cuyo coste no es muy elevado. Además también utilizamos los teléfonos móviles, con otro conjunto de capacidades que pueden servirnos para complementar los datos recogidos por los ‘wearables’. Estos dispositivos son un medio ideal para poder llegar a los ciudadanos y crear alertas tempranas para prevenir problemas de salud. El aumento de la población en áreas urbanas y el ritmo de vida cada vez más sedentario es una preocupación creciente. Por otra parte, los avances tecnológicos en sensores y redes de comunicaciones permiten obtener mucha información, que antes no era posible conocer, prácticamente en tiempo real. Este trabajo en progreso utiliza estos avances, para recopilar datos de los habitantes de una zona urbana en una plataforma web en que en un futuro, los profesionales puedan obtener datos anónimos, analizarlos y suministrar patrones de salud en base a los mismos, dotando al sistema de la capacidad de crear planes de acción comunes y personalizados a los perfiles de los ciudadanos, con el fin de mejorar su calidad de vida. 1 Introducción Según Naciones Unidas, las ciudades de todo el mundo están cada vez más pobladas, siendo la tendencia a que siga aumentando [1]. En las ciudades, las oportunidades se multiplican y es posible cubrir rápidamente todo tipo de necesidades. El problema surge cuando las infraestructuras de la ciudad no son capaces de soportar el crecimiento de la población al mismo ritmo, y el día a día de los ciudadanos se va volviendo más estresante, lo que va degradando su salud, además de aumentar los riesgos de sufrir accidentes [2]. Por otro lado, en las ciudades, los ciudadanos disponen de todo tipo de servicios, prácticamente, sin tener que moverse de su casa. Por ejemplo, existen multitud de servicios de comida a domicilio, sin necesidad de que el cliente tenga que desplazarse al local. En las ciudades, los habitantes son cada vez más sedentarios y esto aumenta las posibilidades de sufrir enfermedades cardiovasculares y coronarias [3] 1 https://zenobase.com/ https://www.microsoft.com/microsoft-health 3 https://fit.google.com/ 4 https://www.apple.com/researchkit/ 2 53 2 de los ciudadanos, para que dejen sus vehículos propios a favor del uso del transporte público. En nuestro trabajo, el sistema analizaría las rutas y los horarios de los usuarios, en sus trayectos de casa al trabajo y viceversa, para proponer posibilidades de uso de transporte público o incluso tramos que pudiera hacer a pie, para aumentar su actividad física. Adicionalmente, estas recomendaciones iniciales, se relacionarían con información obtenida de fuentes de datos externas, como por ejemplo, la meteorológica, para que las sugerencias sean más adecuadas y sean mejor aceptadas por el usuario. Estado del arte Son muchas las ciudades que ya están analizando los datos que pueden ser recogidos desde diversos tipos de sensores para evaluarlos y aplicar técnicas de minería de datos para obtener conclusiones objetivas. Por ejemplo, en el trabajo de Boulos [4] toma Barcelona como ejemplo, exponiendo la utilidad de la información recogida por sensores conectados a Internet, para monitorizar el nivel de polución, combinado con el uso de una aplicación para smartphone, que llevan los ciudadanos (algunos de ellos), para monitorizar el nivel de ruido y de esta forma poder crear alertas de salud ambiental. En nuestro estudio, se relaciona la información recogida por sensores que llevará el ciudadano en los trayectos de ida y vuelta al trabajo en su vehículo, así como los datos recogidos de actividad física y sueño en su día a día, para centrarse en analizar tres de los problemas más generales que afectan a las grandes ciudades: 2.3 Salud Los puntos anteriores están relacionados con la salud de los ciudadanos, pero aparte de éstos, la vida en las ciudades hace que también aumente el sedentarismo, lo que incrementa el riesgo de padecer enfermedades cardiovasculares. En este estudio, el sistema propuesto analizaría la actividad física recogida por los sensores, complementándola con los patrones históricos de actividad del ciudadano e incluso datos de fuentes externas, para sugerir hábitos más saludables. 2.1 Tráfico y riesgo de accidente Es uno de los campos de estudio más extenso, debido al incesante aumento de vehículos en las ciudades. El objetivo global es optimizar los desplazamientos del conjunto de la sociedad dentro de una ciudad, para reducir el impacto medioambiental, así como reducir al mínimo los riesgos de accidente. 3 Desarrollo Se está elaborando una plataforma capaz de analizar los datos recogidos por sensores que llevarán un conjunto de usuarios, para poder inferir patrones de comportamiento de éstos y así definir un sistema automático que sea capaz de realizar sugerencias para mejorar la calidad de vida, tanto desde el punto de vista personal, como de la sociedad en general. Para poder realizar recomendaciones con base científica, se dotará a la plataforma de un conector para que se puedan consultar datos de manera anónima por personal médico y profesionales de la salud, así como una forma para que puedan registrar las conclusiones a las que lleguen en base a los datos analizados, de modo que el sistema pueda usar las conclusiones para aplicarlas a futuros conjuntos de datos. Uno de los factores que más afecta en el riesgo de accidentes, es la falta de atención por una mala calidad de sueño o por no dormir las horas suficientes, como expone Horne en su artículo acerca de cómo afecta el sueño en la conducción [5]. Otro factor que afecta al riesgo de tener un accidente es el estrés en la conducción, aunque éste depende de muchos aspectos, tanto externos como propios de la persona. En este estudio analizaremos el ritmo cardiaco en los trayectos de ida y vuelta del trabajo, ya que existe una relación directa entre el estrés y el ritmo cardiaco [6]. 2.2 Factores energéticos y medioambientales Al producirse un aumento de la población, se produce un mayor número de desplazamientos, que genera un mayor volumen de contaminación. En las grandes ciudades podemos encontrarnos muchos elementos contaminantes en el aire, pero según análisis como el realizado por Mayer [7], el tráfico de vehículos es uno de los que más elementos tóxicos genera y se ha probado, la relación entre la polución del aire y el aumento del riesgo de padecer enfermedades cardiovasculares o incluso cáncer de pulmón [8]. Una de las soluciones más evidentes es la de promover el uso del transporte público, en lugar de usar el coche privado, para reducir los niveles de contaminación. En el estudio de Beirão [12] se analizan los factores que motivan y desalientan a las personas a usar el transporte público: es necesario un compromiso dual entre una mejora de las infraestructuras de transporte público y una mayor concienciación Para alcanzar este objetivo, el sistema debe desarrollarse en varias etapas: En una primera etapa, ha de recogerse una cantidad suficiente de datos de los ciudadanos como para que puedan ser analizados y extraer unos patrones de conducta de éstos. Los datos se obtendrán de sensores que llevarán consigo los ciudadanos. En una segunda etapa, al mismo tiempo que se siguen recogiendo datos de los ciudadanos, un equipo de profesionales de la salud los analizará e irá dotando al sistema de una base de conocimiento para ser capaz de presentar recomendaciones au- 54 tomáticas personalizadas, que puedan llevar a que el ciudadano tenga una vida más saludable. En una tercera etapa, se combinarán estas recomendaciones con otras fuentes de datos externas al propio ciudadano, como pueden ser datos meteorológicos, tráfico, niveles de polución, horarios y disponibilidad de transportes públicos, etc. para realizar recomendaciones más precisas e interesantes para el usuario. La plataforma, al poder actuar como suministradora de información anonimizada, puede ser usada por otros equipos profesionales de otras disciplinas de investigación, para realizar estudios con los datos recogidos y elaborar, del mismo modo, nuevos resultados y conclusiones con los que se podría alimentar también el sistema. pone a sugerirle que podría hacer un tramo de la ruta de vuelta caminando, para mejorar su estilo de vida. Antes de emitir la recomendación en su dispositivo móvil, obtiene y analiza los datos de temperatura y meteorología de la zona en la que se encuentra, de modo que si está o va a llover o hace mucho frío, no plantee esa alternativa. Tipología de datos recogidos Para este estudio, se recogerán los siguientes tipos de datos de las pulseras: Recogida de datos de los ciudadanos Tras analizar varios tipos de dispositivos físicos, así como las APIs que proveen los fabricantes para poder recoger los datos, se ha optado inicialmente, por 2 tipos de dispositivos: Pulseras Fitbit [13] Actividad física Pulso Horas de sueño Por otra parte, se recogerán los siguientes tipos de datos de los dispositivos móviles: Móviles con Sistema Operativo Android Las ventajas del uso de las pulseras con sensores, es que son ligeras, no molestan en la actividad diaria y al contrario que los teléfonos móviles, se siguen llevando puestas cuando se llega a casa. Los modelos más básicos son capaces de recoger datos de actividad física del usuario, como la cantidad de pasos que da o la intensidad del ejercicio físico que realiza, así como las horas de sueño y la calidad de éste. Los modelos más avanzados, son capaces de detectar el pulso cardíaco e incluso la ubicación geográfica. Por otro lado, se ha optado por móviles con sistema operativo Android por ser el más extendido en el mercado, con el objetivo de llegar a un mayor número de ciudadanos. Adicionalmente, con cada medida que se recoge mediante los dispositivos que llevan los ciudadanos, se obtiene una información que le da un valor añadido al dato: el contexto en el que se produce. Los sistemas y la forma de interactuar de éstos con el ser humano, deben adaptarse a las circunstancias y el entorno éste [9]. Esta información contextual, hace que se puedan obtener conclusiones más adecuadas, ya que, por ejemplo, no sería lo mismo obtener una lectura de un ritmo cardiaco elevado en el trayecto al trabajo un día lluvioso, que una tarde en un parque haciendo deporte. Consecuentemente, de cara a poder realizar las recomendaciones más adecuadas al ciudadano en cada momento, es necesario tener en cuenta esta información contextual. Mostremos un posible escenario: Supongamos que el sistema, en base a los datos recogido por los sensores durante un tiempo, concluye que el ciudadano lleva un estilo de vida muy sedentario últimamente. Analizando los parámetros de sueño del día actual, obtiene que ha tenido un correcto descanso. A continuación analiza las rutas que sigue habitualmente de casa al trabajo y del trabajo a casa y las horas a las que suele empezar cada recorrido, además del medio de transporte que usa. Ese día, el sistema detecta que el ciudadano comienza algo antes su trayecto a casa y que ha usado el transporte público para la ida al trabajo, con lo que se dis- Ubicación GPS Acelerometría Los datos serán enviados periódicamente a la plataforma web, donde serán analizados automáticamente para establecer una relación en base a criterios médicos y poder definir, cuando se tenga un conjunto suficiente de datos, recomendaciones para mejorar sus hábitos. Más adelante, se analizarán estos datos y se contrastarán con otras fuentes de datos externas, como datos de tráfico de la API de Google Maps5, datos meteorológicos de AEMET 6 o calidad del aire de AirNow7, por poner algunos ejemplos. Envío de datos Para la transmisión de los datos recopilados por los distintos sensores, se usará el sistema de intercambio de información Ztreamy8, que suministra una interfaz para publicar y consumir los flujos de datos generados por los sensores, siendo posible añadir información contextual, con lo que se pueden conseguir sensores web semánticos. Ztreamy [10] permite, hacer filtrados y búsquedas por la información semántica en las tramas de datos recibidos, con lo que en el destino del envío se pueden localizar un dato concreto sin tener que procesar toda la información. 5 Conclusiones El disponer de un sistema unificado capaz de recoger y analizar los datos de sensores provenientes de los propios ciudadanos y de sensores distribuidos por el entorno, y 5 https://developers.google.com/maps/ http://www.aemet.es/es/serviciosclimaticos 7 http://airnowapi.org/webservices 8 http://www.ztreamy.org/ 6 55 combinar estos datos con otras fuentes externas, hará posible una relación persona-ciudad inteligente en la que el beneficio será mutuo. El sistema propuesto será capaz de cuidar del ciudadano, conociendo el conjunto de parámetros que definen sus hábitos, como los desplazamientos que realiza cada día, el tiempo que descansa o el estrés que sufre, y el contexto en el que se producen, pudiendo de realizar recomendaciones que puedan mejorar su salud. Además, el sistema planteado sería escalable y, en un futuro, conforme vayan evolucionando y surgiendo nuevos sensores biométricos, se irán pudiendo añadir los datos recogidos a la base de conocimiento que ya se tuviera, para elaborar sugerencias más precisas al ciudadano, así como evaluar la salud del conjunto de la sociedad de la ciudad inteligente. Por último, pero no menos importante, se podrá utilizar también como suministrador de información para otras plataformas y estudios de mejora de la calidad de vida en las ciudades. 6 9. 10. 11. 12. 13. Agradecimientos Este trabajo ha sido parcialmente financiado por el proyecto del Ministerio de Economía y Competitividad HERMES (TIN2013-46801-C4-1-r) y los proyectos de excelencia de la Junta de Andalucía Simon (P11-TIC-8052) y ContextLearning (P11-TIC-7124). Referencias 1. 2. 3. 4. 5. 6. 7. 8. United Nations, Department of Economic and Social Affairs, Population Division (2014). World Urbanization Prospects: The 2014 Revision, Highlights (ST/ESA/SER.A/352). Hennessy, Dwight A., and David L. Wiesenthal. Traffic congestion, driver stress, and driver aggression. Aggressive behavior 25.6 (1999): 409423. Bernstein, Martine S., Alfredo Morabia, and Dorith Sloutskis. Definition and prevalence of sedentarism in an urban population. American Journal of Public Health 89.6 (1999): 862-867. Boulos, Maged N Kamel, and Najeeb M AlShorbaji. On the Internet of Things, smart cities and the WHO Healthy Cities. International journal of health geographics 13.1 (2014): 10. Horne, Jim, and Louise Reyner. Vehicle accidents related to sleep: a review. Occupational and environmental medicine 56.5 (1999): 289-294. Simonson, Ernst, et al. Cardiovascular stress (electrocardiographic changes) produced by driving an automobile. American Heart Journal 75.1 (1968): 125-135. Mayer, Helmut. Air pollution in cities. Atmospheric environment 33.24 (1999): 4029-4037. Pope III, C. Arden, et al. Lung cancer, cardiopulmonary mortality, and long-term exposure to fine 56 particulate air pollution. Jama 287.9 (2002): 11321141. Abowd, Gregory D., et al. Towards a better understanding of context and context-awareness. Handheld and ubiquitous computing. Springer Berlin Heidelberg, 1999. Fisteus, Jesus Arias et al. Ztreamy: A middleware for publishing semantic streams on the Web. Web Semantics: Science, Services and Agents on the World Wide Web 25 (2014): 16-23. Beirão, Gabriela, and JA Sarsfield Cabral. Understanding attitudes towards public transport and private car: A qualitative study. Transport policy 14.6 (2007): 478-489. Takacs, Judit, et al. Validation of the Fitbit One activity monitor device during treadmill walking. Journal of Science and Medicine in Sport 17.5 (2014): 496-500. Bernstein, Martine S., Alfredo Morabia, and Dorith Sloutskis. Definition and prevalence of sedentarism in an urban population. American Journal of Public Health 89.6 (1999): 862-867. Sistema de reconocimiento de señales de tráfico para una SmartCity Álvaro Arcos García1, Mario Soilán2, Belén Riveiro2, Juan Antonio Álvarez-García1, Jorge Yago Fernández1, Juan Antonio Ortega1, Pedro Arias-Sánchez2 1 Universidad de Sevilla Depto. Lenguajes y Sistemas Informáticos Avenida Reina Mercedes S/N, 41012 2 Universidad de Vigo Depto. Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente Torrecedeira, 86, 36208 1 {aarcos,jaalvarez,jorgeyago,jortega}@us.es 2 {msoilan, belenriveiro, parias}@uvigo.es Abstract tro del ámbito de Smart Mobility, es decir, mejorar la movilidad de los ciudadanos avanzando en el transporte y los sistemas que lo gestionan. Concretamente describimos un trabajo para la detección y clasificación de señales de tráfico mediante técnicas de visión por computador. El reconocimiento de señales de tráfico es de gran relevancia en los sistemas de transporte y aumentará en Smart Cities superpobladas. En este trabajo en progreso se plantean las técnicas usadas para detectar y clasificar las señales de tráfico españolas. Aunque los resultados son prometedores nos encontramos con el problema de la inexistencia de un dataset específico para España anotadas y clasificadas manualmente. 1 El reconocimiento de señales de tráfico (RST) es de gran relevancia e interés para el mercado automovilístico, el sector industrial, y para las autoridades locales encargadas del mantenimiento de señales. Además, una correcta identificación de las señales desde los vehículos que las transitan permitiría suministrar ayuda a la conducción [28,29]. Introducción A continuación describimos el estado del arte del reconocimiento de señales de tráfico, continuamos describiendo el desarrollo de nuestro sistema basado en un detector LiDAR y RGB, y en un clasificador HOG+SVM. Por último mostramos las conclusiones obtenidas Más de la mitad de la población mundial vive actualmente en áreas urbanas y se espera que esta cifra siga creciendo hasta alcanzar los 6.300 millones de personas en el año 2050 [1]. Este crecimiento plantea nuevos retos y desafíos en el desarrollo sostenible de ciudades que deberán abordar puntos críticos como la gestión de residuos, tráfico, recursos, educación, energía, agua, salud [2], desempleo o seguridad [3,4]. Para solventar estos retos, han surgido colaboraciones entre gobiernos, empresas e instituciones académicas con el fin de desarrollar proyectos en los que se estudian, diseñan y construyen soluciones para hacer frente a dichas dificultades usando las tecnologías de la información y la comunicación (TIC) [5,6]. IBM Smart Planet and Smart Cities [7], Oracle iGovernment [8], Amsterdam Smart City [9], Dubai SmartCity [10], European Smart Cities [11] son algunos de los proyectos líderes relacionados con Smart City. 2 Estado del arte Mediante los sistemas de reconocimiento de señales de tráfico (SRST) se pueden desarrollar aplicaciones inteligentes que permitan crear un sistema de transporte público y privado sostenible y eficiente en las ciudades. Los principales problemas son que las señales de tráfico muestran un amplio rango de diferencias entre clases en términos de colores, formas, y la presencia de textos o pictogramas. Los SRST tienen que hacer frente a distintas variaciones visuales debido a los cambios de iluminación, rotaciones, condiciones meteorológicas, oclusión parcial, etc. Además, la variedad de diferentes señales de tráfico (clases) que tienen que ser distinguidas es muy amplia y diversa en cada país (más de 200 tipos de señales en España [30], Alemania [31] y Bélgica [32]). Una ciudad es inteligente cuando la inversión en capital humano y social y en infraestructuras de comunicación produce un crecimiento sostenible de la economía, un alto grado de calidad de vida y la gestión eficaz de los recursos naturales, todo ello a través de un gobierno participativo [12,13]. En este contexto, nuestro trabajo se encuentra den- 57 A continuación se enumeran cronológicamente soluciones relevantes al problema del RST. En 1997, De La Escalera [18] desarrolló un sistema basado en colores del espacio RGB, cuyas detecciones se pasaban a un clasificador que usaba redes neuronales. En 2005, Bahlmann [14] presentó un sistema integrado de seguimiento, reconocimiento y detección específico para señales de límites de velocidad. El clasificador fue entrenado con 4000 muestras divididas en 23 clases, con un rango de 30 a 600 muestras por clase. Para medir el rendimiento del componente de clasificación del sistema, utilizaron un conjunto de pruebas de 1700 señales de tráfico con el que obtuvieron un 94% de acierto. En 2007, Broggi [16] propuso utilizar redes neuronales para clasificar diferentes señales de tráfico. Para seleccionar la red neuronal adecuada, se basaron en la información de forma y color extraída en la fase de detección. Solo se muestran resultados cualitativos en esta propuesta. Un sistema de reconocimiento de señales de límites de velocidad de Europa y Estados Unidos basado en el reconocimiento individual de dígitos usando redes neuronales, fue propuesto por Moutarde en 2007 [15]. El sistema completo que incluye detección y seguimiento, logra un porcentaje de acierto del 89% para las señales de Estados Unidos y del 90% para las europeas, aplicado a 281 muestras. Maldonado y Bascón [22] presentaron en 2007 un sistema automático de detección y reconocimiento de señales de tráfico basado en máquinas de soporte vectorial (SVM). En él, realizan una segmentación de colores en el espacio HSV, mediante un SVM linear, clasifican la forma de las señales utilizando vectores de características basados en la distancia hasta los bordes, y por último, clasifican los pictogramas mediante un SVM con kernel Gaussiano. En 2008, Keller [17] publicó un sistema de clasificación de señales de límites de velocidad basado en dígitos, con el que lograron un porcentaje de acierto del 92.4% utilizando un conjunto de 2880 imágenes de entrenamiento y otro de 1233 muestras de pruebas. En 2010, Bascón [19] desarrolla un clasificador que obtiene un porcentaje de acierto del 95.5% usando SVM. La base de datos está compuesta de aproximadamente 36000 muestras de señales de tráfico españolas dividas en 193 clases. Dicha base de datos no está disponible públicamente. El problema de estos estudios es la imposibilidad de comparación debido a que el conjunto de señales para cada uno de ellos es muy variado. Recognition Benchmark (GTSRB) [20] comprendido por más de 50000 imágenes divididas en 43 clases. Las publicaciones de los mejores resultados obtenidos en el GTSRB fueron descritas brevemente por Stallkamp en 2011 [20]. Para solventarlo, recientemente se han publicado varias bases de datos que incluyen imágenes de señales de tráfico anotadas y divididas en distintas clases, teniendo así un conjunto genérico y estandarizado de imágenes. El Belgium Traffic Sign Dataset (BelgiumTS) [23] contiene más de 13000 imágenes de señales de tráfico anotadas y divididas en 62 clases. BelgiumTS está separado en dos subconjuntos, uno para detección (BTSD) y otro para clasificación (BTSC). El German Traffic Sign Detection Benchmark (GTSDB) [21] que incluye 600 imágenes de entrenamiento y 300 de evaluación. Y por último, el German Traffic Sign A continuación se describe el sistema propuesto en el marco del proyecto nacional HERMES. En primer lugar se describirá el sistema de detección desarrollado por la Universidad de Vigo y a continuación el de clasificación conjuntamente desarrollado entre Vigo y la Universidad de Sevilla. Si bien la mayor parte de aplicaciones en RST se basan exclusivamente en el análisis de imagen o de vídeo, el uso de Sistemas de Mapeado Móvil (SMM) permite darle nuevos enfoques a esta problemática. Un SMM comprende distintos sensores (GNSS/IMU, láser escáner, cámaras fotográficas…) calibrados y referenciados espacial y temporalmente entre sí. El montaje de un láser escáner en un sistema móvil permite adquirir datos geométricos y radiométricos del entorno de forma masiva y con gran precisión. Recientemente se han desarrollado nuevas metodologías que permiten detectar y reconocer de forma automática distintos objetos en entornos urbanos. Serna y Marcotegui [34] realizaron una revisión de las metodologías que se habían utilizado para detectar objetos como edificios, vehículos, peatones, cables, etc. mediante el análisis de nubes de puntos obtenidas con SMM. Además, proponen su propio método para la clasificación de hasta 20 objetos distintos, basado en una segmentación que utiliza imágenes de elevación y morfología matemática, y una posterior clasificación de objetos utilizando SVM. Recientemente, Yang [35] desarrolló una metodología para clasificar, entre otros objetos, edificios, farolas o vehículos. Se consigue una eficiencia global superior al 92% con una metodología basada en la segmentación de supervoxeles generados a partir de los atributos (posición, color, intensidad) de los puntos de la nube, y clasificación basada en criterios heurísticos. En cuanto a las señales de tráfico, González-Jorge [36] demuestra que los sistemas láser escáner pueden capturar la geometría de las señales de tráfico basándose en los valores de intensidad de los haces láser que se reflejan en puntos de las señales. Dichos valores serán mucho más elevados que los de su entorno, debido a las propiedades retrorreflectivas de la pintura con la que se fabrican las señales de tráfico. Esta propiedad abre las puertas al desarrollo de metodologías para la segmentación automática de señales de tráfico. Pu [37] reconoce distintas formas – rectángulo, circulo, triángulo – a partir de nubes de puntos obtenidas con un SMM. 3 Desarrollo 3.1 Detección de señales de tráfico La detección de señales de tráfico se lleva a cabo sobre nubes de puntos 3D capturadas por dos sensores LiDAR montados en el LYNX Mobile Mapper [38], sistema de mapeado móvil de la Universidad de Vigo. El método que 58 se propone se centra en una segmentación basada en los valores de intensidad de los puntos de la nube. Para ello, se siguen tres pasos: 1) Eliminación del suelo. En primer lugar se eliminan los puntos del suelo y de poca intensidad. Para ello la nube de puntos 3D se rasteriza, es decir, se proyecta sobre el plano XY y se crea una rejilla sobre el plano para tener una estructura de píxeles. Para los resultados presentados en la sección 4.1, las celdas de la rejilla tienen un tamaño de 20x20cm para entorno urbano, y 50x50cm para entorno de carretera. Los atributos de los puntos de la nube en cada celda de la rejilla se utilizan para crear una imagen basada en intensidad (𝐼𝑖𝑛𝑡 ) y otra basada en altura (𝐼ℎ𝑒𝑖𝑔ℎ𝑡 ). DBSCAN [39], que agrupa los puntos de la nube basándose en su densidad local. Además, este algoritmo elimina puntos aislados que puedan existir debido a reflejos o ruido que haya saturado el sensor LiDAR. El resultado de la segmentación es un conjunto de nubes de puntos individuales que representan señales de tráfico y otros objetos reflectantes como matrículas de coche. En este punto se pueden aplicar distintos filtros basados en la geometría para descartar falsos positivos, conociendo las dimensiones mínimas y máximas que pueden tener las señales de tráfico. La información geométrica de los puntos de cada señal se puede utilizar para conocer, por ejemplo, su ángulo con respecto a la vertical, mediante un análisis de componentes principales. En la figura 1a se representan los puntos correspondientes a una señal, así como su ángulo y localización en coordenadas UTM. Se puede observar que la resolución de los puntos no es suficiente para distinguir el significado concreto de la señal. ∑𝑛(𝑥𝑟 ,𝑦𝑟 ) 𝑖𝑛𝑡(𝑝𝑖 (𝑥𝑟 , 𝑦𝑟 )) 𝐼𝑖𝑛𝑡 (𝑥𝑟 , 𝑦𝑟 ) = 𝑖=1 𝑛(𝑥𝑟 , 𝑦𝑟 ) 𝐼ℎ𝑒𝑖𝑔ℎ𝑡 (𝑥𝑟 , 𝑦𝑟 ) = 𝜎𝑧 (𝑥𝑟 , 𝑦𝑟 ) 𝑟 ,𝑦𝑟 ) ∑𝑛(𝑥 [𝑧(𝑝𝑖 (𝑥𝑟 , 𝑦𝑟 )) − min(𝑧(𝑝(𝑥𝑟 , 𝑦𝑟 ))] 𝑖=1 𝑛(𝑥𝑟 , 𝑦𝑟 ) Donde 𝑝(𝑥𝑟 , 𝑦𝑟 ), 𝜎𝑧 (𝑥𝑟 , 𝑦𝑟 ) y 𝑛(𝑥𝑟 , 𝑦𝑟 ) son, respectivamente, el conjunto de puntos, la varianza vertical y el número de puntos en la celda (𝑥𝑟 , 𝑦𝑟 ) del ráster. Finalmente, los puntos de cada señal se pueden mapear a coordenadas imagen de las cámaras del SMM. Cada imagen está asociada a una marca de tiempo y a un punto en la trayectoria, y la orientación externa así como los parámetros de calibración de las cámaras son conocidos. Además, en caso de que la misma señal sea capturada en varias imágenes, se puede elegir aquélla donde la señal aparezca desde el punto de vista más óptimo – sin deformaciones perspectivas - y con un tamaño suficiente en la imagen. En la figura 1b se puede observar la región que contiene a los puntos 3d mapeados sobre la imagen. El proceso de detección se convierte, de esta forma, en invariante a efectos que sí tienen relevancia en las imágenes como pueden ser las sombras, las variaciones en los colores, o la perspectiva. 𝐼𝑖𝑛𝑡 será una imagen donde las señales de tráfico están representadas por unos pocos píxeles de intensidad elevada, mientras que 𝐼ℎ𝑒𝑖𝑔ℎ𝑡 produce una imagen donde los píxeles con más intensidad representan zonas de la nube con puntos que se elevan del suelo. La primera se binariza seleccionando como umbral el valor medio de intensidad de la imagen, considerando sólo los píxeles correspondientes a celdas del ráster que contienen al menos un punto. La segunda, utilizando como valor de umbral 0.001 · max(𝐼ℎ𝑒𝑖𝑔ℎ𝑡 ). Finalmente, se realiza una operación AND entre ambas imágenes y los puntos correspondientes a los píxeles que quedan a 0 se eliminan de la nube. 2) Selección de valor umbral óptimo. Los puntos restantes en la nube se corresponderán, además de con señales de tráfico, con superficies en fachadas, vehículos, carteles, matrículas, etc. Para reducir el número de puntos, en primer lugar se filtra la nube basándose en las propiedades retrorreflectivas de las señales. Se eliminan todos aquellos puntos cuya intensidad es menor que la media en la nube, reduciendo significantemente el número de clases. Después, se ajusta un Modelo Mixto Gaussiano (MMG) con dos componentes. El componente con mayor media definirá la clase en la que se encuentran los puntos de las señales de tráfico. Dentro de esta clase, se podrían distinguir dos distribuciones normales, que se corresponden con puntos de señales a ambos lados de la calzada. Finalmente, los puntos en el MMG se agrupan en dos clases maximizando la probabilidad posterior en la clasificación de cada punto. Los puntos que pertenecen a la clase con menor intensidad son eliminados de la nube. (a) (b) Fig. 1. Detección de señales de tráfico. (a) Nube de puntos de una señal detectada. Se visualiza el ángulo respecto a la vertical y la localización de su centroide. (b) Los puntos 3d se mapean en su imagen correspondiente, quedando aislada una región de interés que contiene la señal. 3) Agrupación de puntos. Una vez realizada la segmentación, es necesario organizar los puntos en clusters para aislar cada señal de tráfico. Para ello, se utiliza el algoritmo 59 Los falsos positivos son provocados en su mayoría por objetos reflectantes de geometría similar a las señales de tráfico, o reflejos en objetos metálicos que cumplen los filtros geométricos que se aplican a las nubes de puntos de los paneles de señales. Estos objetos podrán ser descartados si son clasificados correctamente como negativos en el paso de clasificación. 3.2 Clasificación de señales de tráfico La clasificación de señales de tráfico es un problema de clasificación multiclase. Basándonos en los resultados mostrados por Mathias en 2013 [23], nuestra propuesta consta de dos fases: extracción de características y clasificación. Tanto el entrenamiento como las pruebas de rendimiento del clasificador final, se han llevado a cabo utilizando los datasets GTSRB y BTSC por separado. En cuanto a los falsos negativos, oclusiones parciales pueden hacer que el algoritmo DBSCAN falle a la hora de agrupar los puntos de las señales. Además, aquellas señales cuya pintura haya perdido sus propiedades retrorreflectivas no serán correctamente detectadas. Ante un contexto de inspección de infraestructuras, si una señal anotada previamente no se detecta, la causa puede ser esta degradación del material. La primera fase será la encargada de extraer los histogramas de gradientes orientadas (HOG), descritos por Dalal en 2005 [24], de cada una de las imágenes. Como las señales de tráfico están diseñadas para ser reconocidas por los humanos independientemente del color, las características más discriminativas son la forma y el diseño interior. En los experimentos se han utilizado imágenes recortadas en escala de grises redimensionadas a 40x40 píxeles con las que se han calculado vectores de características de 2916 dimensiones. El resultado es un vector de características de 2916 dimensiones. Estos vectores se calcularon para las imágenes de entrenamiento del BTSC, pero no para las del GTSRB, ya que éste último proporciona las características HOG previamente calculadas con la misma dimensión de vector. 4.2 Clasificación de señales de tráfico En ambas fases de la clasificación se ha usado la librería OpenCV [26]. La implementación de SVM de dicha librería está basada en LIBSVM [27]. Una vez generado el clasificador de señales de tráfico de los dos datasets, se han obtenido los siguientes resultados aplicados al conjunto de imágenes de pruebas. BTSC: 95,83% porcentaje de acierto. GTSRB: 94,49% porcentaje de acierto. En la segunda fase, clasificación, se ha empleado máquinas de vectores soporte (SVM) que hacen uso de la función kernel Lineal (x · y). El tipo de SVM empleado ha sido el C-SVM, propuesto por Boser en 1992 [25], y para el entrenamiento de los clasificadores se ha utilizado la técnica de uno-contra-resto, detallada ampliamente por Hsu en 2002 [33]. 4 Por último, se ha realizado un experimento de clasificación de 1478 imágenes de señales de tráfico españolas aportadas por la Universidad de Vigo. Este dataset no está anotado ni guarda ninguna relación con las clases definidas en BTSC y GTSRB, por lo que no podemos determinar el rendimiento del clasificador de forma cuantitativa. Además, las leves variaciones de color, forma y pictograma que existen entre las señales correspondientes a distintos países, unido a la ausencia de determinadas clases en los datasets, provoca que el rendimiento del clasificador sea menor. En la figura 1 se muestran algunos resultados. Experimentación 4.1 Detección de señales de tráfico La metodología para la detección de señales de tráfico sobre nubes de puntos se ha implementado utilizando Matlab. Las nubes de puntos utilizadas comprenden tanto entornos urbanos como interurbanos (carretera y autopista), en carreteras de Galicia, Portugal y Brasil. Dichas nubes constan de entre 190 y 36 millones de puntos. Muestra española Las señales de tráfico fueron anotadas manualmente en primer lugar como validación para los resultados de la metodología. Los resultados de la validación se pueden observar en la Tabla 1. El rendimiento es mejor para entornos interurbanos, ya que en ciudad existen muchos objetos que pueden ser confundidos con señales, así como mayor probabilidad de oclusiones y daños en señales. Completeness Correctness Interurbano 93.58% 98.08% Urbano 88.37% 84.44% Total 92.11% 93.96% Tabla 1. Resultados para la detección de señales de tráfico. 60 BTSC GTSRB 5. 6. 7. 8. Fig. 1. De izquierda a derecha se puede observar la imagen de la señal de tráfico española de muestra, la clasificación en BTSC y la clasificación en GTSRB. 9. 10. 5 11. Conclusiones La gestión del transporte público y privado de las grandes ciudades será un problema a corto plazo. Mediante el despliegue de sensores y la detección y clasificación de señales de tráfico, los ciudadanos pueden utilizar asistentes avanzados de ayuda a la conducción, o el gobierno puede conocer el estado de las calles y carreteras y actual en consecuencia. El clasificador HOG+SVM propuesto, obtiene altos porcentajes de acierto al aplicarse sobre el dataset alemán y el belga, ambos por separado. Sin embargo, encontramos que si aplicamos estos dos clasificadores a las señales de tráfico españolas los resultados son peores. Una posible solución es crear un dataset de imágenes anotadas con señales españolas similar a BTSC o GTSRB que permita obtener un alto porcentaje de acierto en la clasificación usando HOG+SVM. 6 12. 13. 14. 15. Agradecimientos 16. Este trabajo ha sido parcialmente financiado por el proyecto del Ministerio de Economía y Competitividad HERMES (TIN2013-46801-C4-1-r) y los proyectos de excelencia de la Junta de Andalucía Simon (P11-TIC-8052) y ContextLearning (P11-TIC-7124). 17. 18. 7 Referencias 1. 2. 3. 4. United Nations - Population Division. 2010. <http://esa.un.org/unpd/wup/> Solanas, Agusti et al. Smart health: a contextaware health paradigm within smart cities. IEEE Communications Magazine 52.8 (2014): 74-81. Su, Kehua, Jie Li, and Hongbo Fu. Smart city and the applications. Electronics, Communications and Control (ICECC), 2011 International Conference on 9 Sep. 2011: 1028-1031. Shapiro, Jesse M. Smart cities: quality of life, productivity, and the growth effects of human capital. The review of economics and statistics 88.2 (2006): 324-335. 19. About City Science - MIT Cities. 2012. <http://cities.media.mit.edu/about/cities> Smart City Lab | Alexandra Instituttet. 2015. <http://alexandra.dk/uk/about_us/labs/smart-citylab> IBM Smarter Cities - Future cities - United States. 2009. <http://www.ibm.com/smartercities> Oracle iGovernment. 2010. <http://www.oracle.com/us/industries/publicsector/046936.html> Amsterdam Smart City. 2009. <http://amsterdamsmartcity.com/> Arab Future Cities Summit Dubai. 2014. <http://www.smartcitiesdubai.com/> European smart cities. 2006. <http://www.smartcities.eu/> Caragliu, Andrea, Chiara Del Bo, and Peter Nijkamp. Smart cities in Europe. Journal of urban technology 18.2 (2011): 65-82. Giffinger, Rudolf et al. Smart cities-Ranking of European medium-sized cities. 2007. Bahlmann, Claus, et al. A system for traffic sign detection, tracking, and recognition using color, shape, and motion information. Intelligent Vehicles Symposium, 2005. Proceedings. IEEE. IEEE, 2005. Moutarde, Fabien et al. Robust on-vehicle real-time visual detection of American and European speed limit signs, with a modular Traffic Signs Recognition system. Intelligent Vehicles Symposium, 2007 IEEE 13 Jun. 2007: 1122-1126. Broggi, Alberto, et al. Real time road signs recognition. Intelligent Vehicles Symposium, 2007 IEEE. IEEE, 2007. Keller, Christoph Gustav, et al. Real-time recognition of US speed signs.Intelligent Vehicles Symposium, 2008 IEEE. IEEE, 2008. De La Escalera, Arturo, et al. Road traffic sign detection and classification. Industrial Electronics, IEEE Transactions on 44.6 (1997): 848-859. Bascón, S. Maldonado, et al. An optimization on pictogram identification for the road-sign recognition task using SVMs. Computer Vision and Image Understanding 114.3 (2010): 373-383. 20. Stallkamp, Johannes et al. The German traffic sign recognition benchmark: a multi-class classification competition. Neural Networks (IJCNN), The 2011 International Joint Conference on 31 Jul. 2011: 1453-1460. 21. Houben, Sebastian, et al. Detection of traffic signs in real-world images: The German Traffic Sign Detection Benchmark. Neural Networks (IJCNN), The 2013 International Joint Conference on. IEEE, 2013. 61 22. Maldonado-Bascón, Saturnino, et al. Road-sign detection and recognition based on support vector machines. Intelligent Transportation Systems, IEEE Transactions on 8.2 (2007): 264-278. 23. Mathias, Markus, et al. Traffic sign recognition— How far are we from the solution?. Neural Networks (IJCNN), The 2013 International Joint Conference on. IEEE, 2013. 24. Dalal, Navneet, and Bill Triggs. Histograms of oriented gradients for human detection. Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005. 25. Boser, Bernhard E., Isabelle M. Guyon, and Vladimir N. Vapnik. A training algorithm for optimal margin classifiers. Proceedings of the fifth annual workshop on Computational learning theory. ACM, 1992. 26. Bradski, Gary, and Adrian Kaehler. Learning OpenCV: Computer vision with the OpenCV library. "O'Reilly Media, Inc.", 2008. 27. Chang, Chih-Chung, and Chih-Jen Lin. LIBSVM: a library for support vector machines. ACM Transactions on Intelligent Systems and Technology (TIST)2.3 (2011): 27. 28. Arnoul, P., et al. Traffic signs localisation for highways inventory from a video camera on board a moving collection van. Intelligent Vehicles Symposium, 1996., Proceedings of the 1996 IEEE. IEEE, 1996. 29. Tsai, Yichang, Pilho Kim, and Zhaohua Wang. Generalized traffic sign detection model for developing a sign inventory. Journal of Computing in Civil Engineering 23.5 (2009): 266-276. 30. BOE.es - Documento BOE-A-2003-23514. 2010. <http://www.boe.es/diario_boe/txt.php?id=BOEA-2003-23514> 31. Traffic signs and signals in Germany - ADAC. 2015. <https://www.adac.de/_mmm/pdf/fi_05_verkehrsz eichen_engl_0510_30482.pdf> 32. Road signs in Belgium - OpenStreetMap Wiki. 2011. http://wiki.openstreetmap.org/wiki/Road_signs_in_ Belgium> 33. Hsu, Chih-Wei, and Chih-Jen Lin. A comparison of methods for multiclass support vector machines. Neural Networks, IEEE Transactions on 13.2 (2002): 415-425. 34. Serna, A. and Marcotegui, B. Detection, segmentation and classification of 3D urban objects using mathematical morphology and supervised learning. ISPRS Journal of Photogrammetry and Remote Sensing 93 (2014): 243-255. 35. Yang, B., Dong, Z., Zhao, G., and Dai, W., Hierarchical Extraction of Urban Objects from Mobile Laser Scanning Data. ISPRS Journal of Photogrammetry and Remote Sensing 99 (2015): 45-57. 36. González-Jorge, H., Riveiro, B., Armesto, J., and Arias, P., Geometric evaluation of road signs using radiometric information from laser scanning data. Proceedings 2nd Int. Conf. ISARC (2011): 10071012. 37. Pu, S., Rutzinger, M., Vosselman, G., and Elberink, S.O., Recognizing basic structure from mobile laser scanning data for road inventory studies. ISPRS Journal of Photogrammetry and Remote Sensing 66 (2011): s28-s39. 38. Optech Inc,. 2012. Homepage of the company Opetech Inc., URL: http://www.optech.ca. 39. Ester, M., Kriegel, H., Sander, J., Xu, X., A density-based algorithm for discovering clusters. Proc. 2nd Int. Conf. on Knowledge Discovery and Data Mining, Portland. (1996): 226-231. 62 Infraestructuras para gestión de información de una SmartCity Miguel Luaces1, Susana Ladra1, Mario Muñoz Organero2, Jesús Arias Fisteus2, Víctor Córcoba Magaña2, Pedro Arias-Sánchez2, Belén Riveiro3, Juan Antonio Álvarez-García4, Juan Antonio Ortega4, Jorge Yago Fernández4 1 Universidad de A Coruña Facultad de Informática, Campus de Elviña s/n, 15071 A Coruña, 2 Universidad Carlos III de Madrid Depto. Ingeniería Telemática, Avda. de la Universidad, 30, 28911 3 Universidad de Vigo Depto. Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente Torrecedeira, 86, 36208 4 Universidad de Sevilla Depto. Lenguajes y Sistemas Informáticos Avenida Reina Mercedes S/N, 41012 1 {luaces,sladra}@udc.es 2 {mario.munoz,vcorcoba,jaf,luiss}@it.uc3m.es 3 {parias,belenriveiro}@uvigo.es 4 {jaalvarez,jortega,jorgeyago}@us.es Abstract 1 grado de calidad de vida y la gestión eficaz de los recursos naturales, todo ello a través de un gobierno participativo [12,13]. Introducción Más de la mitad de la población mundial vive actualmente en áreas urbanas y se espera que esta cifra siga creciendo hasta alcanzar los 6.300 millones de personas en el año 2050 [1]. Este crecimiento plantea nuevos retos y desafíos en el desarrollo sostenible de ciudades que deberán abordar puntos críticos como la gestión de residuos, tráfico, recursos, educación, energía, agua, salud [2], desempleo o seguridad [3,4]. Para solventar estos retos, han surgido colaboraciones entre gobiernos, empresas e instituciones académicas con el fin de desarrollar proyectos en los que se estudian, diseñan y construyen soluciones para hacer frente a dichas dificultades usando las tecnologías de la información y la comunicación (TIC) [5,6]. IBM Smart Planet and Smart Cities [7], Oracle iGovernment [8], Amsterdam Smart City [9], Dubai SmartCity [10], European Smart Cities [11] son algunos de los proyectos líderes relacionados con Smart City. En este trabajo se describe la infraestructura propuesta en el proyecto Nacional Hermes en el que se plantea un modelo de transición para llegar a crear ciudades inteligentes sin necesidad de grandes inversiones en infraestructuras. 2 Diseño En la Figura 1 puede observarse el diseño de la infraestructura software para el Proyecto Nacional HERMES. En él se distinguen los siguientes módulos: DBMS Data Access Layer … 3 Una ciudad es inteligente cuando la inversión en capital humano y social y en infraestructuras de comunicación produce un crecimiento sostenible de la economía, un alto Desarrollo 3.1. HERMES Citizen 3.2. HERMES Driver 3.3. HERMES S3D 63 3.4. HERMES Space&Time 5 Conclusiones 6 Agradecimientos tal. The review of economics and statistics 88.2 (2006): 324-335. 5. About City Science - MIT Cities. 2012. <http://cities.media.mit.edu/about/cities> 6. Smart City Lab | Alexandra Instituttet. 2015. <http://alexandra.dk/uk/about_us/labs/smart-citylab> 7. IBM Smarter Cities - Future cities - United States. 2009. <http://www.ibm.com/smartercities> 8. Oracle iGovernment. 2010. <http://www.oracle.com/us/industries/publicsector/046936.html> 9. Amsterdam Smart City. 2009. <http://amsterdamsmartcity.com/> 10. Arab Future Cities Summit Dubai. 2014. <http://www.smartcitiesdubai.com/> Este trabajo ha sido parcialmente financiado por el proyecto del Ministerio de Economía y Competitividad HERMES (TIN2013-46801-C4-1-r) y los proyectos de excelencia de la Junta de Andalucía Simon (P11-TIC-8052) y ContextLearning (P11-TIC-7124). Referencias 1. 2. 3. 4. United Nations - Population Division. 2010. <http://esa.un.org/unpd/wup/> Solanas, Agusti et al. Smart health: a contextaware health paradigm within smart cities. IEEE Communications Magazine 52.8 (2014): 74-81. Su, Kehua, Jie Li, and Hongbo Fu. Smart city and the applications. Electronics, Communications and Control (ICECC), 2011 International Conference on 9 Sep. 2011: 1028-1031. Shapiro, Jesse M. Smart cities: quality of life, productivity, and the growth effects of human capi- 11. European smart cities. <http://www.smart-cities.eu/> 2006. 12. Caragliu, Andrea, Chiara Del Bo, and Peter Nijkamp. Smart cities in Europe. Journal of urban technology 18.2 (2011): 65-82. 13. Giffinger, Rudolf et al. Smart cities-Ranking of European medium-sized cities. 2007. Figura 1: Diseño de la infraestructura software de HERMES 64 A Pilot Study on Energy Saving in an Intelligent Building Zoe Falomir Alejandro Fernandez-Montes ´ Universität Bremen, Germany Universidad de Sevilla, Spain [email protected] [email protected] 1 Extended Abstract Acknowledgments Dr.-Ing. Falomir acknowledges funding by the FP7 Marie Curie IEF actions (COGNITIVE-AMI, GA 328763) and by the Universität Bremen and the Spatial Cognition Centre. Dr. Gonzalez-Abril and Dr. Fernández-Montes acknowledges funding by the Spanish Ministry of Economy and Competitiveness (HERMES,TIN2013-46801-C4-1-r) and by the Andalusian Regional Ministry of Economy, Innovation and Science (Simon, TIC-8052). Nowadays, European countries are becoming more and more conscious of the heavy environmental impacts (ozone layer depletion, global warming, climate change, etc.) and green or renewable energy consumption is generally preferred by the population. After the European Energy Performance of Buildings Directive in 20021 , new buildings nowadays require the installation of solar panels and the use of solar, thermal and photovoltaic energy. Moreover, according to the new European Union guidelines (2010/31/EU, Art. 2 and Art.9) 2 [Weissenberger et al., 2014] starting in 2021 new buildings must achieve the nearly zero-energy (or emission) standards, that is, they must demand very low energy in utilization. Our case of study is an eco-friendly-smart building without air-conditioning system, Cartesium (Figure 1(a)), located at the University of Bremen (Figure1 (b)), which is provided with automatic systems which control the lightings and the blinds. The lightnings at the corridors are controlled by sensors of presence, while the lighting at the offices are switched on/off depending if the door is open or closed. It can also be controlled by the users through the website (Figure 2(b)). Cartesium building has also external luminosity sensors which gather data regarding luminosity and wind speed (Figure 2(c)). Successful results on energy saving from lightning are obtained in the literature by a smart use of wireless sensor networks and actuators [Fernández-Montes et al., 2009]. Thus, a theoretical study for the case of Cartesium building has been carried out and is presented in this paper in order to assess if automating the lightning and blinds of the offices according to users luminance perception would be relevant for energy saving and for cognitive adecuacy to the users. We have constructed a series of theoretical models and evaluate their energy-saving component. Theoretical models are useful because: (i) make a particular view explicit, making it easier to debate; (ii) bring out the hidden assumptions of an approach, and (iii) may suggest new experiments for empirical data collection. Theoretical investigations of the kind carried out in this paper are very common in many sciences, but less common on engineering research. If it is not possible to collect the necessary empirical data, a lot can be learned about the possibility of certain outcomes or their plausibility, such as game theoretic models applied to economics [Gibbons, 1992]. References A. Fernández-Montes, L. Gonzalez-Abril, J.A. Ortega, and F. Velasco. A study on saving energy in artificial lighting by making smart use of wireless sensor networks and actuators. IEEE Network, 23(6):16–20, 2009. R. Gibbons. Game theory for applied economists. Princeton University, 1992. M. Weissenberger, W. Jensch, and W. Lang. The convergence of life cycle assessment and nearly zero-energy buildings: The case of germany. Energy and Buildings, 76:551–557, 2014. 1 Directive 2002/91/CE of the European Parliament at the Council on 16/12/2002. 2 EI-Energy Efficient Buildings European Initiative, E2B: http: //www.e2b-ei.eu Luis Gonzalez-Abril Universidad de Sevilla [email protected] 65 (a) (b) (c) Figure 1: Cartesium building, location inside University of Bremen, and map. (a) (b) (c) Figure 2: Interact@Cartesium system: office example, website for managing the lights and the blinds, and example of data gathered from the external luminosity sensors. 66 Integracion ´ de la Arquitectura Cognitiva SOAR en un Entorno ROS sobre un Parrot AR.Drone 2.0∗ Sai Kishor Kothakota, Cecilio Angulo Universitat Politècnica de Catalunya · UPC BarcelonaTech Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028 [email protected], [email protected] Abstract et al., 2015]. El principal inconveniente de este enfoque es que se necesita demasiada informacion ´ anterior al inicio de la toma de decisiones, que impide al robot reaccionar ante situaciones nuevas. La alternativa más comun ´ a las máquinas de estado son los planificadores. Los planificadores suelen basarse en criterios probabilı́sticos que determinan la mejor combinacion ´ de habilidades en tiempo real para un objetivo especı́fico. Un enfoque diferente a los planificadores es el uso de razonadores, es decir el uso de arquitecturas cognitivas, que ha atraı́do una renovada atencion ´ tanto de los académicos como de la industria [Besold et al., 2014]. Ası́, una arquitectura cognitiva se ha aplicado a un robot de servicio general en [Puigbo et al., 2015] mediante el establecimiento de una comunicacion ´ unidireccional desde la arquitectura al robot. La comunicacion ´ bidireccional entre entorno y robot y el uso de una arquitectura cognitiva ayudarı́an a procesar la meta con planes incompletos en base a informacion ´ retardada procedente del entorno. La arquitectura cognitiva con planificacion ´ incompleta también podrı́a utilizar la informacion ´ disponible por parte del usuario para construir planes. Por lo tanto, los robots que utilizan este tipo de arquitectura podrı́an volver a planificar de acuerdo a los datos ambientales y también podrı́a establecerse un entorno interactivo de usuario, lo que hace innecesario el suministro de datos enormes de antemano y completar el plan a medida que se alcanza el objetivo especificado. Existen varias arquitecturas cognitivas en la literatura [Langleya et al., 2009] como SOAR [Cho et al., 1991; Laird et al., 2004; Young and Lewis, 1997], ACT-R [Anderson et al., 2004; Anderson, 2007; Trafton et al., 2005], CRAM, SS-RICS [Kelley, 2006; Kelley and Avery, 2010]. Todas ellas fueron evaluadas en [Puigbo et al., 2015] en un escenario robotico ´ de proposito ´ general en funcion ´ de su generalizacion, ´ el razonamiento, el aprendizaje, la capacidad de cumplir subobjetivos y su escalabilidad. Utilizando esa discusion ´ previa, también se ha seleccionado SOAR como arquitectura más adecuada para este estudio. SOAR es una arquitectura cognitiva que ha estado en continuo desarrollo desde 1980 que ofrece la capacidad de comunicarse con el ambiente externo. SOAR disponde de otras caracterı́sticas especiales que, en caso de no existir un plan inicial para lograr el objetivo, permite poner en práctica varios mecanismos y conocimientos disponibles, tales como frag- En la vida diaria, el uso de aplicaciones de Inteligencia Artificial (IA) está creciendo. Sin embargo, todavı́a se necesita de un mayor apoyo para su integracion ´ en los robots, lo que conllevará el desarrollo de seres inteligentes capaces de tomar decisiones. Los algoritmos de inteligencia artificial hacen el trabajo más fácil y eficaz. En este documento integramos una Arquitectura Cognitiva (SOAR) desde el dominio de la IA computacional en un Parrot AR.Drone 2.0, un drone cuatrimotor. El principal objetivo es hacerse cargo de la mision ´ con el Parrot AR.Drone 2.0 mediante el establecimiento de una conexion ´ entre el sistema operativo ROS, con la arquitectura cognitiva SOAR, en el que la informacion ´ de los sensores de aviones no tripulados se utiliza para llevar a cabo la tarea requerida. Este trabajo tiene como objetivo la comunicacion ´ bidireccional entre SOAR y ROS, a la vez que interactuar con los seres humanos. 1. Introduction La robotica ´ movil ´ es un área de investigacion ´ de rápido desarrollo tecnologı́co. ´ Los robots moviles ´ se utilizan para aplicaciones especı́ficas, pero en general carecen de la habilidad para realizar acciones donde se producen toma de decisiones en escenarios en tiempo real, ası́ como también la [Canal et interaccion ´ con humanos en que existe ambiguedad ¨ al., 2015]. El enfoque habitual para la planificacion ´ en robots moviles ´ inteligentes se basa principalmente en la tecnologı́a de máquinas de estado, de forma que se consigue un objetivo determinado con un plan completo adecuado disponible antes de su aplicacion. ´ Este plan completo es una combinacion ´ secuencial de habilidades sencillas del robot para lograr el objetivo. Puesto que ninguna retroalimentacion ´ desde el entorno se considera, el robot se comporta de la misma manera en diferentes situaciones del entorno. Ası́, utilizando una planificacion ´ completa desde el principio el robot procede con comandos que tienen poco conocimiento sobre el entorno [Puigbo ∗ Este trabajo ha sido financiado en parte a través del proyecto de investigacion ´ PATRICIA (TIN2012-38416-C03-01) por el Ministerio de Economı́a y Competitividad espanol. ˜ 67 mentacion, ´ aprendizaje por refuerzo, y la capacidad de subobjetivos. Esta arquitectura cognitiva permite seleccionar la habilidad necesaria para la situacion ´ actual de cara a lograr el objetivo especificado sin necesidad de ninguna lista predefinida de situaciones y planes. Este será un elemento clave para establecer una comunicacion ´ bidireccional con el entorno [Laird, 2008]. Por lo tanto. SOAR proporciona una buena plataforma para establecer dicha comunicacion ´ y la interaccion ´ con el usuario. Por otra parte, SOAR se ha aplicado recientemente para el control de un robot humanoide de servicio de proposito ´ general [Puigbo et al., 2015] para resolver tareas complejas usando las habilidades básicas de robot humanoide de servicio como la navegacion, ´ captar el entorno y reconocimiento de objetos. Sin embargo, solamente la comunicacion ´ unidireccional entre SOAR y ROS está disponible, y no se está considerando la intervencion ´ del usuario. Por lo tanto, el objetivo principal de este trabajo es el desarrollo de una comunicacion ´ bidireccional entre SOAR y ROS. La bidireccionalidad puede ser utilizada en entornos interactivos, de forma que el robot actue ´ de manera diferente en situaciones particulares. El resto del trabajo se organiza de la siguiente manera: la arquitectura implementada se introduce en la Seccion ´ 2; en la Seccion ´ 3 se describe la plataforma robot; la Seccion ´ 4 destaca los principales resultados obtenidos durante la experimentacion; ´ por último, se ofrecen algunas conclusiones y futuras lı́neas de investigacion. ´ Figura 1: Imagen gráfica de las estructuras de memoria de trabajo que SOAR genera automáticamente. desde el entorno del robot se pueden procesar en SOAR para la toma de decisiones. Por lo tanto, esta interfaz orientada a SOAR permitirá bidireccionalidad, ası́ como la intervencion ´ del usuario. 2.1. 2. Comunicacion ´ SOAR-ROS bidireccional La memoria de trabajo La informacion ´ almacenada de corto plazo y las estructuras probadas de las reglas generadas serán colocadas en la emoria de trabajo. Ası́ se construye la estructura de grafos de los elementos, donde se crea cada elemento a partir de las reglas y de los sensores o los datos del entorno externo. La arquitectura SOAR crea automáticamente algunas de las estructuras de memoria de trabajo para todos los agentes, cuyos elementos se construyen como tripletas: identificador, atributo y valor. SOAR automáticamente crea un atributo io, que significa input-output para comunicarse con el mundo exterior. Hay dos atributos para io (véase la Figura 1): input-link y output-link: SOAR ha sido seleccionada como arquitectura cognitiva en nuestro enfoque para la planificacion ´ del robot. En SOAR, un estado es una representacion ´ de la situacion ´ del entorno ante la resolucion ´ del problema en curso, un operador transforma un estado (produciendo cambios en la representacion) ´ y un objetivo es un resultado deseado en la actividad de resolucion ´ de problemas, es decir, la solucion ´ virtual que representa la manera de solucionarla. El sistema global propuesto se compone de tres modulos ´ que están conectados mutuamente. La arquitectura cognitiva envı́a comandos de acuerdo a los datos en tiempo real recibidos. A continuacion, ´ la interfaz entre SOAR y ROS, que es nuestra implementacion, ´ recibe órdenes de SOAR, las procesa en comandos de ROS y luego toma los datos del entorno de ROS o de otras fuentes, los procesa para ser enviados a la arquitectura cognitiva SOAR y ası́ procesar futuras decisiones basadas en los datos de entrada. La interfaz para comunicarse con el ambiente externo o robots mediante el envı́o y recepcion ´ de comandos se programa con SML (Soar Markup Language), donde los comandos se empaquetan como paquetes XML y se envı́an. El entorno y el depurador que soporta se conocen como clientes. La comunicacion ´ bidireccional propuesta entre SOAR y ROS será posible considerando el entonro SOAR como el elemento principal. Por lo tanto, los comandos enviados desde ROS se procesan en SOAR y los comandos de SOAR a ROS se procesan correctamente en SOAR y formatean para una evaluacion ´ fácil en ROS. Mediante el uso de la comunicacion ´ en esta forma, tanto el usuario como las entradas El atributo output-link en la estructura de la memoria de trabajo se utiliza para enviar comandos al mundo exterior con el fin de realizar algunas acciones con cada decision ´ de la arquitectura SOAR. El output-link es donde los comandos de accion ´ deben ser creados para los agentes en su mundo. El atributo input-link en la estructura de la memoria de trabajo se utiliza para obtener la informacion ´ del mundo exterior o de los sensores. Normalmente, para la tarea que involucra la informacion ´ desde el entorno externo la mayorı́a de los estados se construyen a partir de la informacion ´ perceptual disponible de los sensores. Esta informacion ´ se crea en el input-link de la estructura del estado. Puede también ser utilizado para tomar la entrada del usuario y hacer que esté disponible en la estructura input-link. 68 2.2. Envı́o y de recepcion ´ de comandos en SOAR SOAR ayuda al usuario a comunicar la informacion ´ al proporcionar las estructuras input-link y output-link de la memoria de trabajo. Usando estas estructuras es posible enviar comandos de SOAR y hacer operaciones con éxito. En forma similar, podemos usar la estructura input-link para obtener datos en SOAR (desde ROS en nuestro caso) con fines computacionales o de toma de decision. ´ Ası́, se pueden obtener los datos de los sensores de a bordo en el robot y utilizarlos para la toma de decisiones. 2.3. El cliente de interfaz Con el fin de construir la comunicacion ´ con el entorno ROS, un cliente de interfaz debe ser disenado ˜ de manera que pueda acceder a las estructuras input-link y output-link para el procesamiento de la comunicacion ´ de envı́o / recepcion ´ de datos en SOAR. Esta conexion ´ de la interfaz a la arquitectura cognitiva SOAR se puede establecer mediante clientes SML (Soar Markup Language). Estos clientes ayudan a la interfaz a establecer una conexion ´ correcta para la transferencia de datos entre ellos. SOAR ofrece diferentes archivos de clientes SML para diferentes lenguajes de programacion ´ (C ++, Python, Java) y estos archivos se pueden utilizar para establecer la conexion ´ entre la interfaz programada y la arquitectura cognitiva SOAR. Acciones seleccionadas por la arquitectura SOAR se traducirán en la activacion ´ de una habilidad en el entorno ROS por medio de la interfaz. Estos comandos ROS luego se reflejan en las acciones del robot, que son los pasos para lograr el objetivo especı́fico. Los clientes SML utilizados desde el archivo de interfaz ayudan a la interfaz a establecer una conexion ´ con el nucleo ´ de SOAR. El cliente puede ayudar ya sea en la creacion ´ de un kernel local de SOAR o una conexion ´ remota a un kernel existente SOAR. Este objeto nucleo ´ se puede utilizar para crear un agente de SOAR. Los agentes creados en SOAR se encargan de la gestion ´ de los elementos de memoria de trabajo. Este agente ayuda a obtener informacion ´ de la arquitectura SOAR y también del envı́o de informacion ´ hacia él (ver Figura 2). 3. Figura 2: Desarrollo de interfaz del cliente SML. Figura 3: Parrot AR.Drone 2.0. Configuracion ´ de la experimentacion ´ se procesa a partir de los comandos decididos en SOAR para que el avion ´ no tripulado pueda llevar a cabo las habilidades o acciones. Parrot AR.Drone 2.0 responde a los comandos ROS con el uso de los paquetes ardrone driver y ardrone autonomy en el entorno ROS1 . Estos controladores ayudan en la interfaz a que las órdenes recibidas desde la arquitectura cognitiva SOAR sean procesados en el entorno de ROS. Este entorno proporciona los datos de navegacion ´ de los sensores de a bordo, antes, durante y después del vuelo. Las lecturas de los sensores disponibles son, entre otros, las senales ˜ de altitud, magnetometro, ´ giroscopio y acelerometro, ´ las lecturas del barometro, ´ el valor de la temperatura, el ángulo de viento. Estos pueden ponerse a disposicion ´ de SOAR y ayudar en la toma de decisiones. Para la experimentacion ´ de la comunicacion ´ bidireccional entre la arquitectura cognitiva SOAR y el entorno ROS se ha empleado el UAV (Unmanned Aerial Vehicle) Parrot AR.Drone 2.0 (ver Figura 3). Este UAV está equipado con numerosos sensores a bordo y un controlador para mantener un vuelo estable, por lo que puede mantenerse en un lugar de espera antes de recibir el siguiente comando. El Parrot AR.Drone es una interesante plataforma de investigacion ´ para la vision ´ por ordenador y la exploracion ´ roboti´ ca [Krajnı́k et al., 2011]. En el proceso de experimentacion, ´ SOAR empleará habilidades simples del robot, como el aumento / disminucion ´ de la altitud, movimiento hacia adelante / atrás, ‘rolling’ a la derecha / izquierda, giro hacia la derecha / izquierda, con el fin de lograr un objetivo especı́fico (véase el Cuadro 1. El Parrot AR.Drone se controlará mediante entorno ROS por lo que la ejecucion ´ de órdenes de ROS en la interfaz 1 69 http://autonomylab.org/ Habilidad Adelante Atras ´ Arriba Abajo Lateral Lateral2 Derecha Izquierda Accion ´ Pitch adelante Pitch atrás Incrementa altitud Decrementa altitud Rolling derecha Rolling izquierda Yaw derecha Yaw izquierda lacionados con los subcomandos permitidos en el robot, que son los definidos en la Tabla 1. Categorı́a 2. Intervencion ´ del usuario, cuyos datos pueden ser utilizados para la toma de decisiones. En la Categorı́a 1, en funcion ´ de la presencia o no de un marcador AR, el modulo ´ SOAR toma decisiones en forma de retroalimentacion ´ del sistema: el modulo ´ SOAR modifica el plan en tiempo real de manera que se logre el objetivo tras sensar el entorno. Durante la operacion, ´ se busca la presencia de marcadores AR y se envı́a al modulo ´ de SOAR el resultado antes de tomar la siguiente decision; ´ a su vez, esta informacion ´ es utilizada por SOAR para tomar decisiones ya que ası́ conoce si ha encontrado un marcador AR en la operacion ´ anterior. El robot, tras encontrar un marcador AR, aterrizará en esa posicion, ´ si ası́ lo determina el usuario. En la Categorı́a 2, se le pregunta al usuario si debe aterrizar el UAV después de haber encontrado el marcador AR:. “Enter 1 for landing, 0 for hovering some time before landing”. Dependiendo de la entrada del usuario, el robot o bien aterriza inmediatamente o puede hacerlo tras flotar durante un determinado perı́odo de tiempo. Ası́ se introduce la intervencion ´ del usuario en la comunicacion ´ SOAR-ROS. Cuadro 1: Habilidades del robot disponibles y sus acciones asociadas. 4. Resultados La comunicacion ´ bidireccional SOAR-ROS ha sido probada en un entorno cerrado para el proceso de busqueda ´ por parte de un Parrot AR.Drone 2.0 de un marcador AR. En esta experimentacion, ´ el robot realiza operaciones basadas en los comandos de ROS que se procesan en la interfaz a partir de los comandos de decision ´ recibidos de la arquitectura SOAR y luego devuelve informacion ´ acerca de la deteccion ´ de un marcador de AR a SOAR para la toma de decisiones. En funcion ´ de la decision ´ del usuario, el plan cambia con el tiempo y las habilidades están determinadas por el modulo ´ SOAR para lograr el objetivo de una manera apropiada. Durante la ejecucion ´ han sido probadas las dos categorı́as. La experimentacion ´ implica proveer el sistema robot con una entrada de usuario por medio de lı́nea de comandos, y la comprobacion ´ de que el robot ha sido capaz de realizar las acciones necesarias para completar el objetivo. Situaciones en las que se prueba el robot son: Categorı́a 1. :“Busqueda ´ de marcador AR y aterrizaje”. La secuencia de las acciones realizadas por el robot es: hacia adelante, verifica si existe marcador AR x 5, lado, , verifica si existe marcador AR, hacia atras, ´ verifica si existe marcador AR x 5, lateral, verifica si existe marcador AR, hacia adelante, verifica si existe marcador AR x 5 y ası́ sucesivamente (hasta un cierto lı́mite de operaciones laterales) lo que demuestra que no es necesaria la planificacion ´ completa inicial en este caso. Category 2.:“Intervencion ´ del Usuario” Cuando se encuentra un marcador AR, entonces SOAR es notificado sobre su presencia a través de un sistema de retroalimentacion ´ en la interfaz. A continuacion ´ se pedirá la entrada del usuario a escoger entre las opciones disponibles. Cuando el usuario escoge una opcion, ´ SOAR llevará a cabo una accion ´ de acuerdo con la interaccion ´ del usuario / intervencion ´ en el sistema. Figura 4: Augmented Reality (AR) markers. El objetivo en la experimentacion ´ será el de encontrar un marcador de Realidad Aumentada (AR) durante el vuelo del UAV y, eventualmente, aterrizar en base a la aceptacion ´ por parte del usuario. La deteccion ´ de marcadores AR se llevará a cabo con el paquete ar pose, que es un estimador de pose de marcadores de realidad aumentada que utiliza ARToolkit [Amin and Govilkar, 2015]. El UAV buscará un marcador de AR durante su vuelo y enviará la informacion ´ sobre su presencia a la arquitectura SOAR a través de la interfaz. Estos datos son utilizados por SOAR para la toma de decisiones. Algunos de los marcadores AR empleados se muestran en la Figura 4. Con este experimento podemos mostrar la comunicacion ´ bidireccional entre SOAR y ROS, el envı́o y recepcion ´ de comandos entre SOAR y ROS en la interfaz desarrollada, ası́ como la forma en que el usuario también puede enviar comandos a fin de completar el plan, aceptando el aterrizaje propuesto por el drone o eventualmente rechazarlo. La experimentacion ´ se ha hecho disponible en http://tiny.cc/ardrone. La aplicacion ´ ha sido disenada ˜ en un ambiente cerrado pero inconcontrolado, un pasillo en un edificio publico. ´ Para alcanzar el objetivo, el robot puede trabajar en dos tipos de interacciones: Categorı́a 1. Uso de comunicacion ´ bidireccional entre la arquitectura cognitiva SOAR y el entorno ROS, como por ejemplo los datos de presencia de marcadores AR re- 70 El sistema cognitivo presentado en este artı́culo garantiza que las acciones propuestas darán lugar a conseguir la meta, por lo que el robot encontrará una solucion ´ basada en la retroalimentacion ´ desde el entorno ROS y en la intervencion ´ del usuario. Esta situacion, ´ sin embargo, no puede ser declarada como óptima. Por ejemplo, en algunas situaciones, el robot podrı́a trasladarse a un lugar que no era camino correcto para el comando ejecutado; antes de pasar a una segunda accion ´ necesita dar un paso en la direccion ´ correcta. En todo caso, la realizacion ´ de la tarea está garantizada ya que la arquitectura proporcionará continuamente pasos hasta que se logre el objetivo especı́fico. 5. el estado del mundo no ha cambiado y seleccionará de nuevo la misma accion ´ (reintento) para el logro de la meta. Este comportamiento podrı́a dar lugar a un bucle infinito de reintentos. Para la seguridad del robot UAV, cuando se produce esta situacion ´ el drone aterriza en el momento que reconoce la existencia de comandos repetidos. Acknowledgments Este trabajo fue posible gracias al apoyo de la Universitat Politècnica de Catalunya (UPC) y la SASTRA University, con su programa de intercambio. Referencias Conclusiones y futuras investigaciones [Amin and Govilkar, 2015] Dhiraj Amin and Sharvari Govilkar. Comparative study of Augmented Reality SDK’s. International Journal on Computational Sciences & Applications (IJCSA), 5, Feb 2015. [Anderson et al., 2004] John R Anderson, Daniel Bothell, Michael D Byrne, Scott Douglass, Christian Lebiere, and Yulin Qin. An integrated theory of the mind. Psychological review, 111(4):1036–60, October 2004. [Anderson, 2007] John R. Anderson. How can the human mind occur in the physical universe? New York: Oxford University Press, 2007. [Besold et al., 2014] T. R. Besold, A. D’Avila Garcez, K. U. Kuhnberger, ¨ and T. C. Stewart(eds.). Neural-symbolic networks for cognitive capacities (Special issue). Biologically Inspired Cognitive Architectures (BICA), 9, 1–122, 2014. [Canal et al., 2015] Gerard Canal, Cecilio Angulo, and Sergio Escalera. Human multi-robot interaction based on gesture recognition. In International Joint Conference on Neural Networks, IJCNN, 2015. In Press. [Cho et al., 1991] Bonghan Cho, Paul S. Rosenbloom, and Charles P. Dolan. Neuro-Soar: A neural-network architecture for goal-oriented behavior. Proceedings of the Thirteenth Annual Conference of the Cognitive Science Society, pages 673–677, 1991. [Kelley and Avery, 2010] Troy Dale Kelley and Eric Avery. A cognitive robotics system: the symbolic and subsymbolic robotic intelligence control system (SS-RICS). SPIE Proceedings Vol. 7710: Multisensor, Multisource Information Fusion: Architectures, Algorithms, and Applications 2010, 25:460–470, April 2010. [Kelley, 2006] Troy Dale Kelley. Developing a Psychologically Inspired Cognitive Architecture for Robotic Control : The Symbolic and Subsymbolic Robotic Intelligence Control System. Internation Journal of Advanced Robotic Systems, 3(3):219–222, 2006. [Krajnı́k et al., 2011] Tomáš Krajnı́k, Vojtěch Vonásek, Daniel Fišer, and Jan Faigl. AR-Drone as a Platform for Robotic Research and Education. Springer Berlin Heidelberg : Communications in Computer and Information Science, pages 172–186, June 2011. [Laird et al., 2004] John E Laird, Keegan R Kinkade, Shiwali Mohan, and Joseph Z Xu. Cognitive Robotics using La comunicacion ´ bidireccional entre la arquitectura cognitiva SOAR y el entorno ROS se ha introducido y probado en un UAV (Unmanned Aerial Vehicle) Parrot AR.Drone 2.0 con objeto de resolver una tarea compleja expresada como la combinacion ´ de habilidades simples. La comunicacion ´ bidireccional es un tema clave para aumentar la informacion ´ en la toma de mejores decisiones por parte de un razonador como SOAR. De esta forma, los planes incompletos pueden ser considerados, informacion ´ del entorno se puede introducir en el razonador y el usuario puede interactuar en el proceso de planificacion. ´ La comunicacion ´ bidireccional introducida ha permitido superar dos desventajas principales del anterior enfoque de comunicacion ´ SOAR-ROS. En primer lugar, la finalizacion ´ de los planes incompletos de un objetivo especificado basándose en los datos en tiempo real disponibles en el entorno. En segundo lugar, la intervencion ´ del usuario que ayuda a las arquitecturas a comunicarse directamente con los usuarios y tomar sus sugerencias o entradas para utilizarlos en la toma de decisiones. Como inconveniente, ya que se permiten planes parciales cuando se inicia la ejecucion ´ del plan, la arquitectura cognitiva no puede conocer si el objetivo solicitado al robot será completamente accesible o no. Sin embargo, ya que la accion ´ del usuario y la retroalimentacion ´ del entorno son ahora accesibles, volver a planificar se hace más fácil, ası́ como la intervencion ´ del usuario en base a la informacion ´ del entorno ayuda en la consecucion ´ de la meta. Se abren además diversas lı́neas de investigacion ´ futuras. Ası́, con el uso de esta comunicacion ´ bidireccional, solo ´ una arquitectura es necesaria sobre las habilidades simples de robots bien definidas y la retroalimentacion ´ de los sensores de a bordo. Por lo tanto, el robot puede comportarse de diferentes maneras ante diferentes ambientes, modificando los planes y ayudando a lograr el objetivo. Por otra parte, la implementacion ´ actual se puede mejorar en términos de robustez mediante la resolucion ´ de un problema conocido. Principalmente, si una de las acciones no está completamente lograda (por ejemplo, el robot no es capaz de llegar a una posicion ´ en el espacio, porque está ocupada o el robot no puede encontrar un objeto que está delante de él), la activacion ´ de la habilidad fallará. En la implementacion ´ actual, ası́ como en los anteriores, el robot no tiene medios para descubrir la razon ´ del fallo. De ahı́ que el robot detecte que 71 the Soar Cognitive Architecture. In Proc. of the 6th Int. Conf.on Cognitive Modelling, pages 226–230, 2004. [Laird, 2008] John E Laird. Extending the Soar Cognitive Architecture. In Artificial General Intelligence Conference, 2008. [Langleya et al., 2009] Pat Langleya, John E. Lairdb, and Seth Rogersa. Cognitive architectures: Research issues and challenges. Cognitive Systems Research, June 2009. [Puigbo et al., 2015] J.-Y. Puigbo, A. Pumarola, C. Angulo, and R. Tellez. Using a Cognitive Architecture for Generalpurpose Service Robot Control. In Connection Science The Society for the Study of Artificial Intelligence and the Simulation of Behaviour, 2015. [Trafton et al., 2005] J.G. Trafton, N.L. Cassimatis, M.D. Bugajska, D.P. Brock, F.E. Mintz, and A.C. Schultz. Enabling effective human-robot interaction using perspective-taking in robots. IEEE Transactions on Systems, Man and Cybernetics, 25:460–470, July 2005. [Young and Lewis, 1997] Richard M Young and Richard L Lewis. The Soar Cognitive Architecture and Human Working Memory. In Models of Working Memory: Mechanisms of Active Maintenance and Executive Control, Nov 1997. 72 Towards Parameterizing a Colour Model depending on the Context Lledó Museros, Ismael Sanz Zoe Falomir Universitat Jaume I Universität Bremen Castellón Bremen Abstract Luis González-Abril Universidad de Sevilla Sevilla it can be adapted to the results of the group of users consulted. The study of the influence of the context when naming colors is not new. Some authors searched for a prototypical, language-independent color naming theory [3-4], while others affirmed language relativism when naming colors [5]. Mylonas et al. [6] presented a synthetic observer trained by the participants’ responses to facilitate color communication. In this paper their approach is followed, but with a crucial difference: while their work aims to separate participants into culturally homogeneous groups, and then create a customization for each different group, in our context we try to find a single customization for the whole group of participants trying to gather all the cultural differences thanks to the use of a fuzzy theory. The advantage of our approach is that it can capture the natural heterogeneity of the group. In this paper we try to demonstrate if when people name colors are influenced by aspects as culture, visual ability, experience, and even the capabilities of the display device. For that reason, in order to parameterize a naming model using a taxonomy of colors as general as possible, an experiment has been carried out where people were asked to freely determine a name and an adjective (if necessary) for describing a displayed color. During the experiment users’ profile and level of confidence information have been recovered too. All these information is used to check if the Fuzzy Color Descriptor (FCD) presented in [1] is suitable to gather the context influence in a naming color model for humanmachine communication. 1. Introduction Acknowledgements Since the process of color naming is formed to a greater part by early childhood learning processes it could be considered a subjective process, and therefore influenced by each one context (culture, language, education, and so on). To check if this assumption is true, an experimental research based in an online test has been conducted to investigate the process of color naming considering the effect of age, gender, occupation, cultural level, nationality and mother-language. A Fuzzy Color Descriptor (FCD) based on the Hue Saturation and Lightness (HSL) color space and 3D Radial Basis Functions (RBFs) are used in the experiment for categorizing color coordinates into names with a degree of believing. HSL color space is used because, according to Falomir et al. [2] its topological structure is intuitive to be divided into intervals of values corresponding to color names by maintaining the continuity of the parameters and defining a conceptual neighborhood diagram. This fuzzy color model is defined in general and parameterized as a baseline using data of a collection of color data [1]. However with the result of the experiment here presented This work was conducted on the scope of the following projects: Spanish Ministry of Economy and Competitiveness HERMES (TIN2013-46801-C4-1-r), Andalusian Regional Ministry of Economy (project SIMON TIC8052), the Spanish Ministry of Economy and Competitiveness (project TIN2011-24147), Generalitat Valenciana (project GVA/2013/135) and Universitat Jaume I (Project P11B2013-29). Dr.-Ing. Zoe Falomir acknowledges funding by the project COGNITIVE-AMI (GA 328763) by the European Commission through FP7 Marie Curie IEF actions and the support by the Universität Bremen and the Spatial Cognition Centre. References [1] Falomir, Z., Mast, V., Vale, D., Museros, L., Gonzalez-Abril, L., 2014. Towards a fuzzy colour model sensitive to the context, in: Proceedings of the XVI ARCA Days: Qualitative Systems and its Applications to Diagnose, Robotics and Ambient Intelligence, pp. 57–67. 73 [2] Falomir Z., Museros L., Gonzalez-Abril L. (2015), A Model for Colour Naming and Comparing based on Conceptual Neighbourhood. An Application for Comparing Art Compositions, Knowledge-Based Systems, 81: 1-21. DOI: http://doi.org/10.1016/j.knosys.2014.12.013. [3] Berlin, B., Kay, P., 1969. Basic color terms: Their universality and evolution. University of California Press, Berkeley. [4] Kay, P., Regier, T., 2007. Colour naming universals: The case of Berinmo. Cognition 111, 289–298. [5] Roberson, D., Davidoff, J.B., Davies, I.R.L., Shapiro, L.R., 2005. Color categories: Evidence for the cultural relativity hypothesis. Cognitive Psychology 50, 378–411. [6] Mylonas, D., Stutters, J., Doval, V., MacDonald, L., 2013. Colournamer – a synthetic observer for colour communication. AIC 2013. 74 Calculo ´ de la odometrı́a en un robot cuadrupedo ´ ∗ mediante técnicas de vision ´ artificial Lucı́a Lillo-Fantova, Manel Velasco, Cecilio Angulo Universitat Politècnica de Catalunya · UPC BarcelonaTech Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028 [email protected], {manel.velasco, cecilio.angulo}@upc.edu Abstract En una primera fase, se hizo posible publicar las imágenes obtenidas por la cámara del robot AIBO a través del entorno de programacion ´ ROS, un estándar en la programacion ´ de robots moviles. ´ Estas imágenes, pueden ser utilizadas por algoritmos de vision ´ artificial para obtener la odometrı́a del robot. Debido a la escasa calidad de las imágenes obtenidas por la cámara integrada en el robot, se doto´ al robot de un sistema de vision ´ estéreo, incorporando una cámara externa de mayor resolucion. ´ Se han establecido dos sockets, uno para cada una de las cámaras, que envı́an la informacion ´ a través de una Raspberry Pi B+ a un ordenador externo. El ordenador envia las órdenes de movimiento al robot AIBO, quien las recoge y ejecuta mediante un cliente de URBI que corre en el procesador del robot. Los experimentos muestran la fiabilidad del método en la medida de rotacion, ´ pero sus limitaciones en el cálculo de la traslacion, ´ 1. Figura 1: Estructura del modelo de integracion ´ del robot AIBO de Sony en ROS. integrar ROS en el proyecto nace como una oportunidad de poder hacer uso de la gran cantidad de librerı́as y herramientas que incorpora este sistema operativo para facilitar la creacion ´ de aplicaciones roboticas. ´ Entre ellas, nos ofrece herramientas como SLAM [Huang and Dissanayake, 2007; Riisgaard and Blas, 2005], SIFT [Flores and Braun, 2011] o RANSAC, de gran utilidad para el proyecto. El cálculo de la odometrı́a en robots rodados es un problema con una amplia literatura de soluciones. La informacion ´ odométrica se suele extraer integrando los valores obtenidos de los encoders montados sobre las ruedas del robot. En cambio en robots con patas como AIBO no puede aplicarse el sistema estándar anterior. En estos casos, una alternativa es el cálculo de la odometrı́a a partir de la informacion ´ visual aportada por las cámaras integradas en el robot. Inicialmente se definio´ una solucion ´ al problema planteado unicamente ´ con las herramientas incorporadas en el propio robot AIBO, conjuntamente con un portátil para realizar los cálculos computacionales más complejos. No obstante, debido a la voluntad de realizar el control del robot mediante vision ´ por computador y la escasa calidad de las imágenes capturadas por la cámara incorporada en el robot, se ha recurrido a un sistema de estéreo vision ´ montado sobre éste. El artı́culo se organiza como sigue: la Seccion ´ 2 realiza una breve introduccion ´ al robot AIBO y la metodologı́a para la adquisicion ´ de la imagen de la cámara del robot AIBO y su publicacion ´ en ROS. Después, se define el conjunto de estéreo vision ´ y su puesta a punto. Luego se describe el método global de correspondencia de imágenes que deberá permitir el cálculo de la odometrı́a, incluyendo la reconstruccion ´ tridimensional a partir del cálculo de la disparidad y la matriz Introduccion ´ Este proyecto surge a partir de la voluntad de recuperar la funcionalidad del robot AIBO de Sony [Decuir et al., 2004], actualmente discontinuado en su produccion ´ y soporte, dentro de un entorno de programacion ´ actualizado y potente [Kertész, 2013], ası́ como dotarlo de las herramientas necesarias [Kolovrat, 2013] para proporcionarle la capacidad de navegar autonomamente ´ en un entorno de trabajo mediante algoritmos de vision ´ artificial. Como se muestra en la Figura 1, a partir del sistema operativo de AIBO, OPEN-R SDK, se ha integrado el entorno de programacion ´ URBI [Baillie, 2005a; 2005b], mediante el cual se enviarán datos a través de una estructura servidor/cliente entre el robot, servidor, y un ordenador externo, cliente. Los datos recibidos por el cliente deberán ser almacenados en un buffer temporal para su posterior tratamiento mediante algoritmos en OpenCV [Bradski, 2000], encargado de su transformacion ´ en imágenes interpretables por ROS [Quigley et al., 2009]. La voluntad de ∗ Este trabajo ha sido financiado parcialmente por el proyecto de investigacion ´ PATRICIA (TIN2012-38416-C03-01) del Ministerio de Economı́a y Competitividad del Gobierno de Espana. ˜ 75 de disparidad a profundidad obtenida del proceso de calibracion. ´ En las siguientes secciones se define el protocolo para el cálculo del movimiento realizado por el AIBO y se describen las diversas experimentaciones realizadas para dicho cálculo. Finalmente, se presentan las diferentes conclusiones extraı́das a partir los resultados observados y las posibles ampliaciones del trabajo aquı́ presentado. 2. igualmente la imagen a cv::Mat o IplImage segun ´ la aplicacion ´ pero representan el mismo formato. En consecuencia el primer paso será la transformacion ´ de los datos a OpenCV. Primero se operan los mensajes de URBI de tipo UMessage donde si el contenido es correcto contendrá un apuntador al valor del mensaje. Los datos adquiridos serán de tipo UValue el cuál contiene varias variables. De entre ellas se seleccionan los datos del tipo DATA BINARY, representados por mensajes de tipo UBinary (Figura 3). Finalmente, se escoge la informacion ´ del subtipo UImage. El robot AIBO AIBO es un robot cuadrupedo ´ creado por SONY e introducido en 1999 con el modelo ERS-110 [Téllez, 2004]. Fue el primer robot de este tipo en el mercado. Inicialmente SONY enfoco´ este producto como un robot de entretenimiento para el uso doméstico, pero tuvo una gran repercusion ´ entre la comunidad cientı́fica puesto que facilitaba la investigacion ´ en campos como la inteligencia artificial y la interaccion ´ entre robots [Zhang and Chen, 2007]. SONY comenzo´ su comercializacion ´ limitando el acceso al lenguaje de programacion ´ a ellos mismos y a los participantes de la RoboCup. En 2001 retiro´ los derechos de autor al kit de programacion ´ del AIBO permitiendo ası́ el uso no comercial de éste. El kit incluı́a los lenguajes de programcion ´ R-CODE, OPEN-R SDK y el Framework remoto de AIBO. Además de las propias plataformas oficiales de SONY la comunidad de usuarios desarrollo´ toda una serie de plataformas sobre el robot para facilitar la programacion ´ de éste, tales como ´ Tekkotsu [Tek, 2014], URBI [Gostai, 2014] o la compilacion ´ cruzada de Webots [Hohl et al., 2006]. El proyecto ideado por SONY únicamente duro´ siete anos, ˜ parando la produccion ´ en 2006, pero a pesar de la brevedad lanzo´ toda una serie de modelos en tres generaciones de robot (Figura 2). Pese a la interrupcion ´ de la fabricacion ´ hoy en dı́a aun ´ se encuentran eventos tales como ´ la Convencion ´ Internacional de AIBO donde se realizan intercambios de software open source. Figura 3: Obtencion ´ de las imágenes. Esta informacion ´ será guardada en un buffer de 4 imágenes ya en formato jpg, por lo que se presentará una imagen de 3 canales R, G, B que posteriormente será abierta mediante OpenCV y transformada en una imagen de tipo cv::Mat, tipo obligado para la implementacion ´ de las funciones de la librerı́a de CV Bridge. Mediante ésta transformaremos las imágenes a un formato interpretable por ROS y que serán enviadas al topico ´ de imagen correspondiente. 3. Conjunto de estéreo vision ´ La imagen que genera el propio AIBO presenta una calidad muy baja. Además, el robot únicamente dispone de una cámara; en consecuencia, dificulta la extraccion ´ de la traslacion ´ entre imágenes. Por todo ello, se ha creado un conjunto de estéreo vision ´ para la realizacion ´ del proyecto permitiendo ası́ tareas como ´ la reconstruccion ´ tridimensional. El conjunto de estéreo vision ´ estará formado por dos cámaras web sujetas mediante un soporte solidario a la rotacion ´ del cuello del AIBO y conectadas a una Raspberry Pi B+ que enviará las imágenes recibidas al ordenador. Ambas cámaras se situarán a una distancia segun ´ planos de 5cm aproximadamente (se ha obtenido un valor de 4,802cm). Dicha distancia es conocida como lı́nea de base, b y será de gran utilidad para la reconstruccion ´ tridimensional de las imágenes. El plano de las cámaras se situará 3cm por detrás del punto de rotacion ´ de la cabeza y 5cm por encima de éste. Figura 2: Modelos de AIBO en el perı́odo 1999-2006. El robot AIBO dispone de una cámara de tecnologı́a CMOS que presenta una resolucion ´ de 350000 pı́xels (480 x 720) [Pérez et al., 2010a; Pérez et al., 2010b]. Las imágenes captadas tendrán que ser convertidas para permitir el procesamiento aplicado posteriormente. El primer punto a tratar es la transformacion ´ de las imágenes a partir de URBI en un formato adecuado para la publicacion ´ en ROS. El formato correspondiente a los topicos ´ de imagen en ROS es sensor msgs::Image. Para realizar la conversion ´ se dispone de la plataforma cv bridge, una librerı́a de OpenCV que facilita la conversion ´ entre imágenes de OpenCV a mensajes de ROS. Para esto se debe transformar 76 Dichos valores son de utilidad a la hora de asociar la rotacion ´ y la traslacion ´ visionada por el conjunto con el movimiento realizado por el propio AIBO. La Raspberry Pi B+ es un ordenador de placa única, SBC, desarrollado por la Raspberry Pi Foundation como ordenador de bajo coste destinado a promover la programacion ´ en las escuelas. Permite diferentes sistemas operativos entre ellos el sistema operativo Linux escogido, Raspbian. Al no incorporar un sistema de almacenamiento permanente el sistema operativo se instala en una tarjeta SD de 32Gb. Sobre este sistema operativo se deberán instalar las librerı́as OpenCV 2.4.10 para el tratamiento de imágenes. Para la comunicacion ´ entre la Raspberry Pi B+ y el ordenador se establecen dos sockets TCP para el envı́o de las imágenes capturadas, un socket por cada cámara. En esta estructura la Raspberry Pi será el cliente que se conecta al servidor, el ordenador. Debido a la existencia de dos sockets el ordenador reserva dos puertos para la recepcion ´ de imágenes. La definicion ´ de los parámetros de la cámara se realiza mediante las librerı́as libv4l2 que se aplica sobre los dispositivos de vı́deo. Finalmente, una vez montado se ha calibrado el conjunto de estéreo vision ´ con la finalidad de obtener los parámetros intrı́nsecos e extrı́nsecos de las cámaras y poder ası́ realizar las correcciones necesarias en ambas imágenes, izquierda y derecha. Asimismo se utilizarán los parámetros obtenidos para extraer la informacion ´ tridimensional de la imagen de utilidad en el cálculo de la odometrı́a. Además, como la informacion ´ que se extraiga tendrá como finalidad el cálculo del movimiento del robot AIBO considerando como origen el centro de rotacion ´ del robot, se deberá de transformar la informacion ´ obtenida al centro de rotacion ´ de éste. El origen de coordenadas de las cámaras se situa ´ en la cámara izquierda mientras que el origen de coordenadas de AIBO se situa ´ en el centro de giro del robot que se considera que se localiza en el centro del cuerpo del robot. Por ello se establecen tres puntos con sistemas de referencia conocidos. La calibracion ´ de las imágenes consiste en la estimacion ´ de los parámetros de la cámara a partir de la captura de imágenes de calibracion ´ en las que se observa un patron ´ de dimensiones reales conocidas. Dicho patron ´ consistirá en un tablero de ajedrez de 10x7 casillas cada una de 2,5x2,5cm. Dichos parámetros son de dos tipos, los extrı́nsecos y los intrı́nsecos. Los parámetros extrı́nsecos son aquellos que relacionan el sistema de coordenadas global {Xw , Yw , Zw } con un sistema de coordenadas fijo a la cámara {x, y, z} obteniendo ası́ su posicion ´ y orientacion ´ respecto al sistema definido. Mientras que los intrı́nsecos relacionan un punto del sistema de coordenadas fijo a la cámara (x, y, z)t con su proyeccion ´ en el plano de la imagen (X, Y )t . En ambas cámaras se han obtenido parámetros muy parecidos debido a que son del mismo modelo, en consecuencia las lentes presentan una gran similitud entre ellas resultando en una distancia focal y centro óptico prácticamente iguales. 4. base camera: Siendo el origen la cámara izquierda del conjunto de estéreo vision. ´ El eje z es el perpendicular al plano de imagen, el eje y es la vertical del plano de imagen y finalmente el eje x es la horizontal del plano de imagen. base head: Siendo el origen el punto central de la lı́nea de contacto entre el conjunto de estéreo vision ´ y la parte trasera de la cabeza del AIBO y manteniendo la misma orientacion ´ de los ejes que en base camera. Coincide con el origen de la semicircunferencia de la base del colları́n del AIBO. 4.1. Reconstruccion ´ tridimensional Una vez determinado el modelo que define el conjunto de estéreo vision ´ se realiza la reconstruccion ´ tridimensional de la escena captada. Para ello se parte de la imagen de referencia, la izquierda, y se realiza la busqueda ´ del pı́xel correspondiente en la imagen derecha. La diferencia entre las coordenadas de los pı́xeles correspondientes es conocida como disparidad y es expresada en términos de pı́xeles. Se considera que el pı́xel correspondiente pertenece a la lı́nea epipolar ya que se parte de la imagen rectificada, es decir, partiendo de un pı́xel en la imagen de referencia (x, y) se establece que el pı́xel correspondiente cumplirá la relacion ´ x0 = x + d(x, y) estableciendo d(x, y) como la disparidad entre dos pı́xeles. Una vez limitado el cálculo a los pı́xeles pertenecientes a la lı́nea epipolar se procede a calcular la disparidad. Para ello base link: Siendo el origen el centro de rotacion ´ del AIBO. Las transformaciones entre sistemas de referencia quedan resumidas en el Cuadro 1. base head → base camera (−0,024, 0,000, 0,050) Implementacion ´ del método Una vez calibrado el conjunto de estéreo vision, ´ etapa previa a la puesta en marcha del robot, se ha realizado la reconstruccion ´ tridimensional de la escena observada a partir del modelo obtenido. Mediante la reconstruccion ´ tridimensional se obtiene una nube de puntos que recoge la informacion ´ de color de la imagen y la profundidad calculada, de utilidad en el cálculo de la traslacion. ´ Posteriormente se han extraı́do los puntos de interés de cada una de las cámaras del conjunto de estéreo vision ´ permitiendo ası́ relacionar dos escenas siempre y cuando tengan una parte de la escena comun. ´ El algoritmo de correspondencia entre imágenes es la base para el cálculo de la transformacion ´ entre dos escenas recogido en la matriz fundamental. A partir de la matriz fundamental y conjuntamente con los parámetros de calibracion ´ se ha extraı́do la informacion ´ de la matriz esencial, imprescindible para el cálculo de la rotacion ´ del robot. Además, la correspondencia entre imágenes también sirve para calcular la traslacion ´ como la diferencia entre los valores de la nube de puntos para cada uno de los puntos emparejados. Finalmente se establece la metodologı́a utilizada para procesar los datos obtenidos y calcular ası́ la odometrı́a a partir de los puntos aquı́ expuestos. base link → base head (0,070, 0,000, 0,160) Cuadro 1: Transformaciones entre sistemas de referencia, expresadas en metros. 77 se calcula la diferencia de intensidad de un pı́xel con su correspondiente suponiendo una disparidad d y la de los pı́xeles contiguos con sus pı́xeles correspondientes, considerando el mismo valor de disparidad. De esta manera se obtiene la diferencia de intensidades para toda una ventana W entorno al pı́xel de estudio. El sumatorio de las diferencias de intensidad obtenidas en dicha ventana es la funcion ´ de coste a minimizar para cada uno de los pı́xeles de la imagen y cuyo resultado será la disparidad óptima para cada uno de éstos. Dicho método es conocido como ´ SAD, suma de las diferencias de intensidad absolutas. Una vez encontrada la disparidad óptima se procede al cálculo de la profundidad para cada uno de los pı́xeles sabiendo que la disparidad es inversamente proporcional a la profundidad a la que se situan ´ los objetos captados por la imagen. Tras determinar la profundidad z, se calculan las coordenadas x e y a partir de las ecuaciones de la cámara. Finalmente, la matriz de disparidad a profundidad Q recoge dichos cálculos resumiendo ası́ la transformacion ´ de disparidad a profundidad. 4.2. La transformacion ´ escogida como solucion ´ es expresada en la forma de matriz fundamental que relaciona un pı́xel de la primera imagen con su correspondiente lı́nea epipolar en la segunda imagen mediante una matriz 3x3 de rango 2. A partir de esta matriz y conjuntamente con la informacion ´ intrı́nseca de las cámaras se ha obtenido la matriz esencial mediante la que se ha realizado la descomposicion ´ en los valores singulares pudiendo extraer ası́ el valor de la matriz de rotacion. ´ 5. Calculo ´ de la odometrı́a Los datos de odometrı́a están formados por la informacion ´ de posicion ´ y de orientacion ´ del robot. Debido a la naturaleza del movimiento del robot, un robot cuadrupedo ´ que carece de sistemas óptimos para el cálculo de su movimiento, quedan descartadas las soluciones comunes para el cálculo de la odometrı́a. Entre las opciones descartadas se encuentra el cálculo del movimiento a partir de la integracion ´ de los datos obtenidos de los encoders en el caso de los robots rodados o a partir de la informacion ´ tridimensional obtenida de sensores como la kinect. En el caso de estudio se ha optado por un sistema de estéreo vision ´ para la reconstruccion ´ tridimensional del entorno y aprovechar ası́ la informacion ´ de ambas cámaras para el cálculo de la odometrı́a. Se ha modelizado el sistema de navegacion ´ a partir del propio sistema utilizado por el ser humano que se basa en la vision ´ para desplazarse por su entorno, tal y como ´ se establece en [Pérez-Sala et al., 2011]. Siendo la vista el sentido que determina a qué distancia se encuentra un objeto, como ´ se ha movido éste y el desplazamiento realizado respecto a dicho objeto. Si se analiza el protocolo de movimiento de una persona se observa que antes de girar en una direccion ´ se produce una observacion ´ del medio y el establecimiento de la direccion ´ objetivo. Por tanto para la realizacion ´ de un giro en el caso de una persona con el sentido de la vista correctamente desarrollado primeramente orientarı́a la cabeza en la direccion ´ deseada estableciendo ası́ la meta y posteriormente girarı́a el resto del cuerpo hasta alinear cabeza y tronco. En el caso de una traslacion ´ se utiliza la percepcion ´ de la profundidad obtenida gracias a la vision ´ binocular que permite gracias al fenomeno ´ de triangulacion ´ realizar la reconstruccion ´ tridimensional del entorno. A partir de dicho modelo se ha definido el sistema de cálculo de odometrı́a donde la percepcion ´ de la profundidad se obtiene a través del conjunto de vision ´ estéreo y la rotacion ´ se computará a partir de los puntos de interés correspondientes entre dos imágenes. Se debe remarcar que para mayor eficacia del método se ha dividido el movimiento del robot en dos fases: rotacion ´ y traslacion. ´ Cuando el robot recibe una orden de teclado para moverse el programa procesa primero las órdenes de rotacion ´ y una vez finalizada la rotacion ´ pasa a procesar las órdenes de traslacion. ´ Posteriormente publica los datos de odometrı́a calculados a través de ROS. Correspondencia estéreo robusta La correspondencia estéreo consiste en la busqueda ´ de un punto correspondiente a la primera imagen en la segunda imagen. Dicha busqueda ´ se ha limitado a aquellos pı́xeles que cumplan una serie de caracterı́sticas de diferenciabilidad en la imagen y son nombrados puntos de interés. Se entiende por puntos de interés aquellos puntos caracterı́sticos de cada imagen que sean fácilmente distinguibles y detectables frente a cambios de escala y deformaciones. La informacion ´ se obtiene en la forma de descriptores locales que contienen la informacion ´ de los puntos de interés de una imagen consistente en un vector que recoge la informacion ´ del punto de interés y de dicho punto con los puntos de interés contiguos. Se ha aplicado la metodologı́a SURF [Herbert Bay and Van Gool, 2006], algoritmo introducido por Herber Bay en 2006, para la extraccion ´ de los puntos de interés. Esta metodologı́a está basada en el método SIFT [Lowe, 2004] publicado por David Lowe en 1999. Una vez detectados los puntos de interés mediante el algoritmo de SURF se procede al emparejamiento robusto por fases entre los puntos de interés de la primera y la segunda imagen. Mediante este procedimiento se eliminarán aquellos puntos considerados como falsas correspondencias. Una vez determinada la transformacion ´ ésta se aplica a todos los puntos emparejados de la primera imagen y se calcula que la distancia de los puntos transformados con los puntos correspondientes en la segunda imagen sea inferior a una tolerancia . Aquellos puntos que estén dentro de los lı́mites de tolerancia son conocidos como inliers. Si el porcentaje de inliers respecto a los puntos totales es superior al 99 % se considera correcta la solucion ´ que es refinada teniendo en cuenta todos los inliers. En caso contrario, se vuelve a seleccionar un conjunto aleatorio de puntos y se repite el proceso hasta encontrar un modelo de movimiento que represente correctamente al 99 % de los puntos. 5.1. Calculo ´ de la rotacion ´ Se ha definido un estándar de giro de ±45◦ y se ha limitado el valor del ángulo de giro con la intencion ´ de minimizar el 78 error introducido por la metodologı́a, ya que no puede ser corregido con los datos de navegacion ´ del robot debido a la falta de un sensor que suministre dicha informacion. ´ El protocolo de giro propuesto parte de un estado inicial con la cabeza y el tronco alineados, θ = 0◦ . Donde ´ θ es el ángulo presente entre la cabeza y el tronco. Posteriormente se establece la direccion ´ objetivo girando la cabeza hacia la direccion ´ deseada un ángulo θ = ±45◦ dependiendo de si se gira hacia la izquierda (+) o la derecha (-). Una vez definido el objetivo se trata de un proceso iterativo compuesto por tres etapas. consecuencia en la siguiente iteracion ´ se invierte el sentido de giro hasta encontrarse de nuevo con una escena conocida. Cambio de signo: Se ha establecido que la solucion ´ será correcta cuando el ángulo entre el tronco y la cabeza del robot sea de ±5◦ . Pero puede darse el caso en el que el robot pase de largo la direccion ´ objetivo debido a una rotacion ´ excesiva, en consecuencia se ha dotado al robot con un sistema que al detectar un cambio de sentido de la rotacion ´ (cambio de signo en el ángulo de la cabeza respecto al tronco) se realiza una inversion ´ del sentido de rotacion ´ hasta corregir el error. 1. Giro del robot un ángulo desconocido, α. 2. Cálculo del ángulo girado, β, mediante la transformacion ´ de la escena observada por las cámaras. 5.2. 3. Giro de la cabeza del robot un ángulo β en sentido contrario al giro del cuerpo, de manera que θ = θ − β hasta visualizar de nuevo el objetivo. Calculo ´ de la traslacion ´ En el cálculo de la odometrı́a se debe establecer la equivalencia entre la suposicion ´ en que la cámara realice una traslacion ´ T y los puntos observados permanezcan estáticos en la escena tridimensional, y la suposicion ´ en que es la cámara la que permanece estática en la escena tridimensional y son los puntos los que realizan una traslacion ´ de valor −T . Dicha informacion ´ es de gran utilidad para la extraccion ´ de la traslacion ´ real realizada por el robot. Estas tres etapas se repetirán hasta alinear la cabeza y el tronco estableciendo un margen de error de ±5◦ . Finalmente se corrige el ángulo girado sabiendo que el ángulo final será el ángulo inicial establecido como objetivo ±45◦ menos el angulo ´ final entre cabeza y tronco θ, por último se alinea cabeza y tronco, θ = 0◦ . Una vez alineado si se vuelve a cambiar de direccion ´ se partirá de nuevo desde el estado inicial con la cabeza y el tronco alineados y se repetirá el proceso. Se ha especificado un estándar de giro del robot para la primera etapa, éste consiste en un giro de un segundo, con un periodo por paso de un segundo. De aquı́ surge una problemática ya que el efecto en el AIBO de una misma orden de giro presenta una variabilidad muy elevada, afectada también por el tipo de terreno sobre el que se esté moviendo, la posicion ´ inicial, etc. En consecuencia se ha definido que antes de realizar un giro el AIBO partirá de una posicion ´ con las patas completamente estiradas para reducir al máximo posibles variaciones entre secuencias. De esta manera se asegura también que siempre que se entre al proceso de cálculo de la rotacion ´ entre dos secuencias de tiempo se hayan capturado ambas escenas a la misma altura siendo entonces la variacion ´ observada en la escena únicamente la introducida por el movimiento de rotacion. ´ Para la determinacion ´ del ángulo girado, β, se calculan los puntos de interés de la imagen anterior al giro y la posterior. Posteriormente se realiza la correspondencia estéreo robusta de ambas imágenes obteniendo ası́ la matriz fundamental. La rotacion ´ se calcula a partir de la matriz esencial obtenida a partir de la matriz fundamental. Este método ha sido probado en un seguido de experimentos para comprobar su veracidad. Se han considerado un seguido de situaciones singulares que podrı́an darse durante el cálculo de la rotacion ´ del robot y para las que se ha creado un protocolo de actuacion ´ para evitar fallidas del programa. 6. 6.1. Experimentacion ´ Traslacion ´ La experimentacion ´ de la rotacion ´ se divide en dos fases. En la primera fase se ha experimentado únicamente con el conjunto de estéreo vision ´ realizando rotaciones en el eje y ya que el robot realiza un movimiento planar y la principal rotacion ´ detectada será en este eje. En esta fase también se ha estudiado los valores óptimos para los diferentes parámetros del cálculo de la correspondencia entre imágenes. En la segunda fase se ha experimentado ya sobre el AIBO y aplicando el protocolo de giro para observar si el comportamiento es el esperado. Fase I: Rotacion ´ pura En el primero de los experimentos se ha realizado una idealizacion ´ del movimiento planar en cuyo caso el AIBO únicamente rotarı́a en el eje y. Entendiendo el eje y como el eje vertical perteneciente al plano de imagen. Se han comparado la rotacion ´ real con la estimada para diferentes valores de los parámetros de correspondencia estéreo obteniendo ası́ los valores óptimos. Entre los parámetros estudiados se encuentran el ratio de distancia, para el paso 2 del emparejamiento estéreo, y la distancia máxima a la lı́nea epipolar para el test de RANSAC, paso 4 del emparejamiento estéreo. Rotacion ´ calculada en funcion ´ del ratio de distancia Se ha realizado un estudio del cálculo de la rotacion ´ en funcion ´ del ratio. Concretamente se ha asignado valores de ratio de 0,2 a 3,0 con incrementos de 0,2. Se observa un mayor ajuste a la rotacion ´ real para un ratio máximo de 0,7. El robot se pierde: Si el robot gira un ángulo excesivamente elevado, este pierde de vista los puntos de referencia de la iteracion ´ anterior y en consecuencia se pierde. Dicho comportamiento debe ser detectado y corregido dentro del protocolo de giro. Concretamente se ha establecido que si el robot se pierde es debido a una rotacion ´ excesivamente elevada y en Rotacion ´ calculada en funcion ´ de la distancia a la lı́nea epipolar La distancia a la lı́nea epipolar es de interés en el 79 Estado 6: Estado resultante del giro de la cabeza un angulo ´ de valor −β1 test de RANSAC, dicho valor define la distancia máxima a la que se debe encontrar un punto de su lı́nea epipolar para ser considerado apto. Se observa un mayor ajuste a la rotacion ´ real para un valor del parámetro de la distancia máxima a la lı́nea epipolar de 2,6 pı́xeles. Estas pruebas han sido realizadas en un entorno en el que los puntos de interés se encuentran entre 1 y 1,5m ya que el ambito ´ de esta aplicacion ´ son los espacios interiores. Por tanto en este caso se ha demostrado que el rango óptimo para el cálculo de la rotacion ´ a través de la vision ´ se encuentra entre 0◦ y 15◦ . Si los puntos de interés detectados se encontrarán a mayor distancia el rango óptimo de rotacion ´ aumentarı́a ya que los puntos de interés detectados se mantendrı́an dentro del campo de vision ´ al girar. El ángulo después de esta iteracion ´ entre la cabeza y el cuerpo, pan, será de pan = 45◦ − β0 − β1 = −3◦ . Por la tanto, se encuentra dentro de los lı́mites de |pan| ≤ 5◦ Como consecuencia al estudio previo sobre el cálculo de la rotacion ´ en un espacio interior se sabe que el rango óptimo de giro se encuentra entre 0◦ y 15◦ . Por tanto se ha realizado un estudio sobre el protocolo de giro del AIBO con el objetivo de seleccionar la frecuencia de paso y la duracion ´ del giro que resultan en un giro de aproximadamente 15◦ . Se observa una mayor precision ´ del giro si la duracion ´ del giro del robot es dos veces el perı́odo de paso del robot. Al ser un multiplo ´ del perı́odo de paso se satisface que al girar se acaba la accion, ´ es decir, que acaba en una postura similar a la inicial. Además se selecciona este valor concreto ya que multiples ´ mayores corresponden a giros excesivamente elevados. Fase II: Rotacion ´ sobre el AIBO Estado inicial: Establecimiento de la direccion ´ objetivo girando únicamente la cabeza 45◦ en la direccion ´ deseada (en este caso en sentido horario). Estado 1: Rotacion ´ del robot un ángulo α0 desconocido (en este caso en sentido horario). 6.2. Traslacion ´ Se divide en dos etapas, en la primera se calcula la traslacion ´ mediante la reconstruccion ´ tridimensional para cada instante de tiempo del conjunto de estéreo vision. ´ En el segundo experimento se introduce un elemento de dimensiones conocidas en el entorno de modo que a partir de la variacion ´ de la percepcion ´ de dicho objeto entre las dos secuencias y el conocimiento de la distancia focal se calcula la traslacion ´ realizada. A continuacion ´ se detallan cada uno de los experimentos realizados. El robot no detecta ningun ´ punto de interés reobservado en consecuencia deshace el giro para volver al estado inicial. Estado 1: El robot se ha perdido. Estado 2: El robot realiza un giro de ángulo α1 desconocido (en este caso en sentido antihorario). Realiza la comparacion ´ de los puntos de interés del Estado 2 con los del Estado inicial y comprueba que se encuentra ahora sı́ en un estado conocido. Fase I: Traslacion ´ a partir de la reconstruccion ´ tridimensional En este caso el cálculo de la traslacion ´ se realiza mediante la informacion ´ tridimensional obtenida a partir del conjunto de estéreo vision ´ para dos instantes de tiempo. El cálculo recoge aproximadamente un total de 1000 experimentos para translaciones en el eje z de 0,5cm a 3cm con incrementos de 0,5cm. Se observa una gran variabilidad en la traslacion ´ calculada esta tendencia aumenta para translaciones inferiores a 1,5cm debido a la escasa variacion ´ de la escena. Dicha observacion ´ ha conllevado a la realizacion ´ de un estudio para translaciones mayores, de un rango de entre 3 y 6cm. Se vuelve a repetir el comportamiento anterior quedando claramente reflejado la disminucion ´ del error para translaciones superiores a 1 cm. El error observado puede deberse a un fallo en alguno de los parámetros de calibracion ´ calculados. También se deben considerar posibles errores en la fase de correspondencia entre imágenes ya que un error de 1cm en la traslacion ´ calculada puede deberse a un error en la fase de deteccion ´ de 7,604 pı́xeles, error menospreciable teniendo en cuenta el tamano ˜ de la imagen de 640x480 pı́xeles. Estado 2: Estado de partida para la extraccion ´ del ángulo rotado a partir de la imagen. Estado 3: Estado resultante de la realizacion ´ de un giro de ángulo α2 desconocido (en este caso en sentido horario). Realiza la comparacion ´ de los puntos de interés del Estado 2 con los del Estado 3 y cálcula el ángulo girado β0 . Estado 3: Estado resultante de la realizacion ´ de un giro de ángulo α2 desconocido (en este caso en sentido horario). Estado 4: Estado resultante del giro de la cabeza un angulo ´ de valor −β0 El ángulo después de esta iteracion ´ entre la cabeza y el cuerpo, pan, será de pan = 45◦ − β0 = −24◦ . Estado 4: Estado de partida para la extraccion ´ del ángulo rotado a partir de la imagen. Estado 5: Estado resultante de la realizacion ´ de un giro de ángulo α3 desconocido (en este caso en sentido horario). Fase II: Traslacion ´ a partir de un objeto de tamano ˜ conocido Se introduce un elemento de dimensiones conocidas en el entorno y se observa en dos instantes de tiempo. De este modo conociendo la dimension ´ real del objeto y la distancia focal se puede calcular la profundidad a la que se encuentra el objeto Realiza la comparacion ´ de los puntos de interés del Estado 4 con los del Estado 5 y cálcula el ángulo girado β1 . Estado 5: Estado resultante de la realizacion ´ de un giro de ángulo α3 desconocido (en este caso en sentido horario). 80 en cada una de las escenas y ası́ calcular la variacion ´ en la profundidad. Debido a los resultados recogidos en el experimento anterior se ha optado por realizar el estudio de la traslacion ´ para valores comprendidos entre 0,5 y 6cm. Se observa una disminucion ´ del error respecto al calculado anteriormente de dos ordenes ´ de magnitud para translaciones inferiores o iguales a 1cm y disminuciones del error de un orden de magnitud para translaciones mayores. A pesar de la disminucion ´ del error este presenta el mismo orden de magnitud que el valor de traslacion ´ y por tanto las medidas realizadas son de escasa fiabilidad. En consecuencia se establece que se podrı́a mejorar el ajuste de los parámetros de calibracion ´ ya que en este experimento en que únicamente se depende del valor de la distancia focal los resultados mejoran, por tanto los resultados de la Fase I podrı́an mejorar con un mayor ajuste de los valores de calibracion. ´ Finalmente repetir la conclusion ´ de la fase anterior y es que un error de 1cm en el valor de la traslacion ´ puede estar debido a un fallo en la etapa de correspondencia de imágenes de 7,604 pı́xeles en consecuencia es un error viable y de aquı́ que el error en la traslacion ´ presente el mismo orden de magnitud que la propia traslacion. ´ 7. del proyecto incluyendo interaccion ´ con el entorno y comportamiento autonomo. ´ Sin embargo en la fase de traslacion ´ no se han conseguido cumplir los requisitos marcados. El trabajo podrı́a extenderse a la creacion ´ de una base de datos con las imágenes capturadas. De esta manera el robot se crea una representacion ´ del entorno a partir de las imágenes capturadas, contra más capturas realiza mejor descripcion ´ presenta del entorno de manera que disminuirı́a el numero ´ de estados desconocidos. Otro punto a trabajar una vez calculada la base de datos serı́a la aplicacion ´ de SLAM, mediante SLAM se permite la creacı́on ´ de un mapa del entorno de navegacion ´ a partir de la informacion ´ analizada y la situacion ´ del robot en el mapa. Como futura consideracion ´ el AIBO podrı́a incorporar un sistema de deteccion ´ de obstáculos que definiese la direccion ´ de movimiento en vez de recibir la informacion ´ del teclado del ordenador, presentando ası́ una mayor aproximacion ´ a la inteligencia artificial. Finalmente también se podrı́a optimizar el funcionamiento de los diferentes procesos para aumentar la velocidad de procesado. Referencias [Baillie, 2005a] Jean-Christophe Baillie. URBI Language Specification. 2005. [Baillie, 2005b] Jean Christophe Baillie. URBI: Towards a universal robotic low-level programming language. In 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS, pages 3219–3224, 2005. [Bradski, 2000] G. Bradski. The OpenCV Library. Dr. Dobb’s Journal of Software Tools, 2000. [Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor Matsuda, and Jon Piazza. A friendly face in robotics: Sony’s aibo entertainment robot as an educational tool. Computers in Entertainment, 2(2):14, 2004. [Flores and Braun, 2011] Pablo Flores and Juan Braun. Algoritmo SIFT : fundamento teorico. ´ pages 1–5, 2011. [Gostai, 2014] Gostai. URBI Doc for Aibo ERS2xx ERS7 and URBI 1.0, 2014. Data de consulta: 6 de març de 2014. [Herbert Bay and Van Gool, 2006] Tinne Tuytelaars Herbert Bay and Luc Van Gool. Surf: Speeded up robust features. In Computer vision–ECCV 2006, pages 404–417. Springer, 2006. [Hohl et al., 2006] Lukas Hohl, Ricardo Tellez, Olivier Michel, and Auke Jan Ijspeert. Aibo and Webots: Simulation, wireless remote control and controller transfer. Robotics and Autonomous Systems, 54(6):472–485, June 2006. [Huang and Dissanayake, 2007] Shoudong Huang and Gamini Dissanayake. Convergence and Consistency Analysis for Extended Kalman Filter Based SLAM. IEEE Transactions on Robotics, 23(5):1036–1049, October 2007. [Kertész, 2013] Csaba Kertész. Improvements in the native development environment for Sony AIBO. International Journal of Interactive Multimedia and Artificial Intelligence, 2(3):51, 2013. Conclusiones y trabajo futuro A lo largo del trabajo se ha explicado la metodologı́a aplicada para el cálculo de la odometrı́a mediante la informacion ´ visual. Estableciendo ası́ cada una de las etapas necesarias y sus parámetros de ajuste. Se ha conseguido publicar correctamente a través de ROS las imágenes capturadas por el AIBO pero la escasa calidad de éstas conjuntamente con la caı́da de la transmision ´ de la informacion ´ a conllevado al montaje de un conjunto de estéreo vision. ´ Se ha conseguido ajustar correctamente la reconstruccion ´ tridimensional, ası́ como el cálculo de la rotacion ´ y en consecuencia lograr un control óptimo sobre la fase de rotacion ´ en el cálculo de odometrı́a. A pesar de ratificar el correcto funcionamiento de las etapas mencionadas anteriormente se ha detectado fallos de funcionamiento en el cálculo de la traslacion, ´ tal y como ´ se observa por la gran variabilidad de los datos obtenidos. Tal y como ´ se ha justificado anteriormente en cada uno de los experimentos realizados para el cálculo de la traslacion ´ la variabilidad observada se explica como una pequena ˜ variacion ´ en la correspondencia entre imágenes. Originando ası́ que una variacion ´ de pocos pı́xeles se transforme en una variacion ´ de centı́metros en el cálculo de la traslacion ´ realizada, error del mismo orden de magnitud que el de la traslacion ´ realizada. En consecuencia el error obtenido en los resultados es significativo en ambos experimentos. Se establece entonces que la traslacion ´ extraı́da no es concluyente. Finalmente se establece que la rotacion ´ calculada es correcta, por tanto el AIBO es capaz de extraer la informacion ´ que necesita del entorno para realizar la rotacion ´ deseada a pesar de que la traslacion ´ extraı́da no se corresponde con la real. En consecuencia si se limita a la extraccion ´ de la rotacion ´ se han cumplido todos los objetivos marcados al inicio 81 [Kolovrat, 2013] Stipe Kolovrat. Development of Android Application for Sony Aibo ERS-7 robot. Master’s thesis, Universitat Politècnica de Catalunya, 2013. [Lowe, 2004] David G Lowe. Distinctive image features from scale-invariant keypoints. In International journal of computer vision, volume 60, pages 91–110. Springer, 2004. [Pérez et al., 2010a] Xavier Pérez, Cecilio Angulo, and Sergio Escalera. Vision-based Navigation and Reinforcement Learning Path Finding for Social Robots. PhD thesis, Universitat Politécnica de Catalunya, 2010. [Pérez et al., 2010b] Xavier Pérez, Cecilio Angulo, Sergio Escalera, and Diego E. Pardo. Vision-based navigation and reinforcement learning path finding for social robots. In Jornadas ARCA 2010, June 2010. [Pérez-Sala et al., 2011] Xavier Pérez-Sala, Cecilio Angulo, and Sergio Escalera. Biologically inspired turn control for autonomous mobile robots. In CCIA, pages 189–198, 2011. [Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P. Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: an open-source robot operating system. In ICRA Workshop on Open Source Software, 2009. [Riisgaard and Blas, 2005] Søren Riisgaard and Morten Rufus Blas. Slam for dummies: A tutorial approach to simultaneous localization and mapping. Technical report, 2005. [Tek, 2014] Tekkotsu, 2014. Fecha de consulta: 18/06/2014. [Téllez, 2004] Ricardo A. Téllez. Aibo Quickstart Manual. Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004. [Zhang and Chen, 2007] Jiaqi Zhang and Qijun Chen. Learning based gaits evolution for an AIBO dog. 2007 IEEE Congress on Evolutionary Computation, pages 1523– 1526, September 2007. 82 Un estudio estadístico de los e-mails que recibe un investigador actual en el área de conocimiento de la computación y de la bioingeniería Luis González-Abrila y Yenny Lealb a Departamento de Economía Aplicada I. Universidad de Sevilla. Avda. Ramón y Cajal 1, 41018 Sevilla (España) b Department of Information Engineering, University of Padova. Via G. Gradenigo 6/B, 35131 Padova (Italy) [email protected], [email protected] Evidentemente el porcentaje de correo basura depende de cada investigador, pero en ningún caso es despreciable. Esto provoca malgastar recursos, como espacio de almacenamiento de correo, ancho de banda y, sobretodo, horas de trabajo. Además, la entrada de estos correos potencian el riesgo de introducir algunos de los diferentes virus que constantemente van apareciendo por internet. En general, el correo basura es cierta forma de inundar Internet con muchas copias del mismo mensaje, en un intento de alcanzar a gente que de otro modo nunca recibiría dicho mensaje ni lo leería. Sin embargo, la mayoría de estos e-mails no pasan el filtro establecido por la institución ya que los patrones de comportamiento son conocidos y cuando aún no los son, se suelen detectar con prontitud y cortar su difusión. El objetivo de este trabajo no es centrarnos en los correos spam tradicionales, sino que nos enfocaremos en los correos no deseados que hacen referencia a temas de investigación, pero que distan mucho de ser afines al investigador que lo recibe o que aún siendo afines no son de interés en ese momento al investigador. En referencia a dichos correos, por ejemplo, no sería una invitación afín aquella invitación a participar en un evento científico relacionado con teoría de control cuando la línea de trabajo del investigador está relacionada con temas de desigualdad social. Otra invitación no deseada, en general, sería aquella que tiene un alto coste económico y/o de tiempo. Un ejemplo es “The 2015 international conference on new energy and renewable resources will be held from July 4-5, 2015, in Guangzhou” para un investigador de Cádiz, ambas ciudades con malas conexiones aéreas y/o por el idioma local muy díficil de desembolverse en su entorno, lo que supone un gasto en tiempo a la hora de gestionar el viaje. Además, una vez completados los preparativos, sólo el viaje requeriría más de 4 días completos y el desembolso económico con toda seguridad no bajaría de los 1500 euros. En este trabajo, un estudio de la correspondencia, vía emails, recibida por un investigador universitario a lo largo de un período de dos meses es analizada. El resto del artículo se estructura como sigue: en la sección 2 se realiza un estudio de algunos tipos de correos significativos. En la sección 3 se muestra una estadística con los diferentes tipos de correos recibidos. Se finaliza con una sección de conclusiones sobre el trabajo. Abstract Un estudio de la correspondencia, vía e-mails, que fue recibida por un investigador universitario a lo largo de un período de dos meses es analizada en profundidad en este artículo. Se muestran el número de invitaciones a congresos y/o revistas (“call for papers”) y a otros acontecimientos científicos, analizándose la calidad de estas llamadas a la participación en términos standard (índice del congreso en rankings de referencia e indexación de las revistas). Se profundiza en aquellas invitaciones donde hay que realizar un desembolso económico para poder tener una publicación. Además, se muestran otros tipos de correspondencias que no tienen como fin una publicación, pero que se mueven dentro del mismo entorno. 1 Introducción En los tiempos actuales, un investigador lo primero que suele hacer cuando se sienta en su despacho es revisar el correo electrónico y despachar los e-mails de su bandeja de entrada. Si se tiene en cuenta que la mayoría de las instituciones científicas tienen un cortafuego en su correo institucional, que limita la entrada de correos no deseados (o correos “basura”), son muchos los que escapan a esos controles y entran directamente en la bandeja de entrada o no son directamente rechazados por el sistema y se colocan en una carpeta que generalmente se suele llamar SPAM1 . Incluso, aunque el usuario basado en experiencias previas de correos no deseados recibidos con anterioridad, haya puesto diferentes filtros para rechazar peticiones de diferentes tipos, léase “publicidad no deseada” (anuncios comerciales, anuncios de pornografía, métodos de hacerse ricos, servicios no siempre muy legales, viajes,...), “publicidad no comercial” (los llamados JUNKMAIL: cartas de cadenas, anuncio de falsos virus, falsos premios por reenviar mensajes, falsas peticiones de claves de accesos,...), no se logra un control íntegro del mismo. 1 Esta palabra proviene de la época de la segunda guerra mundial, cuando los familiares de los soldados en guerra les enviaban comida enlatada; entre estas comidas enlatadas se encontraba una carne enlatada llamada spam, que en los Estados Unidos es muy común. 83 2 Análisis de datos sólo con leerlo. En determinados caso se ha de analizar si ciertamente es o no realmente de interés y a veces se suele llevar algún tiempo en alguna bandeja apropiada del correo hasta que definitivamente se borran o se toman en consideración (los menos). En otros muchos casos, como ha ocurrido con el investigador analizado, una vez ha recibido diferentes correos del mismo tipo y deseando que sea el propio sistema quien lo rechace automáticamente, ha tenido que establecer un filtro en su navegador para dicho fin, con el consiguiente gasto en tiempo así como en ralentizar el sistema de correo al tener que comprobar si el correo entrante cumple o no el filtro impuesto (por ejemplo, con el correo que ha motivado la figura 1). En este punto señalar que algunos correos incorporan en el cuerpo del texto la opción de no recibir más correo, es decir, la desuscripción. Sin embargo, el envio de estos correos se hace de forma automática y en muchos casos se desconoce si ciertamente la dirección de correo a la que se envia el correo (es decir, la del investigador analizado) es una dirección correcta o no. Por tanto, si recibe una replica con una orden de desuscripción se esta diciendo directamente que la dirección es buena y ya se esta “fichado” para siempre o hasta que cambies de dirección de correo. Retomando el cómputo de tiempo, si por término medio se pierden 45 segundos y el número de correos recibidos en los dos meses de estudios han sido 1032, el cómputo total es de 774 minutos, es decir, 12 horas y 54 minutos. Así, si se considera una jornada laboral normal de 8 horas, en sólo dos meses de estudios sería más de un día y medio perdido solo en leer y rechazar este tipo de correos. Respecto a la constancia en el envío de invitaciones indicar, por ejemplo, que para el “6th Workshop on Soft Computing in Image Processing and Computer Vision (SCIPCV)” a celebrar en Las Vegas (USA), en julio de 2015, se reciben 4 emails en poco más de un mes (ver la figura 2). Lo mismo ocurre con el “16th EANN 2015 Engineering Applications of Neural Networks” a celebrar en las isla de Rodas (Grecia), en septiembre de 2015, para el cual se reciben 5 invitaciones a la participación. Permítanos centrarnos, como referencia, El presente estudio abarca un período ininterrumpido de dos meses de duración, concretamente, desde el 4 de marzo al 3 de mayo de 2015, en el cual se han recogido todos los e-mails que un investigador universitario ha recibido, en su cuenta de correo institucional, y se ha llevado a cabo un estudio estadístico descriptivo de los mismos. El número total de e-mails recibidos en ese período fue de 4126. Si tenemos en cuenta que median 61 días entre el comienzo y el final del período analizado, este dato proporciona una media de 67.64 correos diarios. De estos correos 1032 fueron invitaciones a diferentes eventos científicos, publicaciones en revistas, congresos, jornadas, charlas inaugurales, ser editor asociado, productos relacionados con sus trabajos,.... que proporciona un 25.01% del total de correos recibidos. Así, en la figura 1 se recoge un ejemplo de este tipo de correos. En concreto, en este correo (anuncio) se ofrece un producto relacionado con la salud, tema que el investigador ha tratado en algunas de sus publicaciones científicas. En otros correos, es de destacar la insitencia del remitente, Figura 1: Ejemplo de un fichero no deseado. por ejemplo sirva notar que solo con remitente EAI Events2 aparecen 45 e-mails, es decir, casi a uno diario. En primer lugar, permítanos comenzar realizando una aproximación al tiempo dedicado a este tipo de correos. La experiencia de los remitentes en general es muy buena, es por ello que estos correos a priori no son siempre detectables a primera vista, es decir, simplemente con mirar el “Asunto“. Así, el proceso generalmente seguido es, una vez se tiene un mensaje en la bandeja, abrir dicho mensaje, leer lo más significativo del mismo y si no es de interés, salir del texto del mensaje y borrarlo del sistema. Partamos del supuesto que dicho tiempo se encuentra en el rango de entre 30 y 60 segundos. Dicho valor ha sido estimado tras consultar no sólo al investigador analizado sino también a otros investigadores del mismo área de conocimiento y/o afines. Evidentemente, la gran mayoría de ellos se desechan antes de los 30 segundos pero, como nos asegura la estadística, en algún otro se pierde mucho más tiempo, puesto que no basta Figura 2: Invitación al 6th Workshop on Soft Computing in Image Processing and Computer Vision (SCIPCV). 2 The European Alliance for Innovation es un ecosistema dinámico para fomentar la innovación de las TIC para mejorar la competitividad europea y para beneficio de la sociedad. en esta última invitación, puesto que se trata de un “correo apetecible” en el sentido que se indica que los artículos sele- 84 ccionados serán considerados para publicación en una revista de alto impacto (ver Figura 3). En primer lugar, se debe com- Topics Suggested topics include, but are not limited to, the following: Neural networks techniques Learning theory Evolutionary architectures Unsupervised Learning Reinforcement Learning Adaptive architecture Hybrid systems and Modeling Hardware development Low cost architectures Research areas Computer vision Pattern Recognition Classification Colour, Motion analysis Image Video Processing Signal Processing Fusion Telecommunications Robotics Intelligent Transportation Systems Financial Forecasting Time Series Analysis Data mining Adaptive Control Modelling and identification Prediction Process Monitoring and Diagnosis Intelligent Agents Multi Agent Systems Real Time Intelligent Systems Bioinformatics Fuzzy logic and systems Support vectors machines Humanistic Data Mining Optimization Genetic Algorithms and Optimization Feature Minimization Filters Clustering - Fuzzy Clustering Figura 3: Los artículos del EANN seleccionados serán considerados para su publicación en un número especial de las revistas de Springer “Neural Computing and Applications” con índice de impacto 1.763, y en la revista de Springer “Evolving Systems”. probar que ciertamente se dispone de algún trabajo que encaje dentro de la temática del congreso. Este punto en general no suele ser una handicap ya que el abanico de temáticas que se plantea es muy amplio con objetivo de acceder al mayor número de investigadores posibles (ver la figura 4). En concreto, en este congreso es de 3 áreas y 50 items en total. Sin embargo, la lectura de los gastos del congreso (ver la figura 5) junto con los gastos de transporte y de alojamiento te hacen no solo retomarte el tema sino en la mayoría de los casos olvidarlo, Con respecto a las revistas de acceso libre (Open- son revistas académicas que están disponibles en línea para el lector), las cuales suelen publicitarse por e-mail al igual que se publicita la compra de productos en TV, es importante señalar la dudosa reputabilidad3 de algunas de ellas. Tanto es así que incluso existen listados de revistas e instituciones, a disposición de profesores e investigadores, como por ejemplo, la lista de Predatory Publishers (editores depredadores) de Jeffrey Beall4 . De esta lista se obtiene que en el año 2013 estén catalogados como “Predatory Publishers” un total de 242 editores y de “Individual Journals” un total de 126 revistas. Por otro lado, estas revistas generalmente llevan asociado un pago por la publicación que no suele ser en algunos casos económico. sirva de ejemplo los siguientes casos que se muestran en la figura 6. Hay otro tipo de correo que inicialmente agrada al lector. Es el tipo de correo en el que se le invita como editor asociado en una revista, a pertenecer al comité técnico de un congreso, a dar una charla inaugural aunque poco tenga que ver con su línea de investigación, como por ejemplo (ver la figura 7). Engineering Applications Civil Engineering Fuzzy Inference Systems Medical and Biomedical Engineering Decision Making Industrial -Manufacturing Engineering Applications Computer science Thermal Engineering Financial Engineering General Engineering Applications Environmental Engineering Natural Disasters Applications Risk Modeling Social Media Applications Chaos 3 Un interesante artículo puede verse en http://multipliciudades.org/2014/06/24/cuidado-con-los-timos-enrevistas-open-access/ 4 http://scholarlyoa.com/2012/12/06/bealls-list-of-predatorypublishers-2013/ Figura 4: Lista de temas no excluyentes del Congreso 6th Workshop on Soft Computing in Image Processing and Computer Vision (SCIPCV) 85 Registration Fees Registration type Full registration Full - ENNS/INNS member Student registration Student-ENNS/INNS member Extras Over-length Fee: Additional Paper Fee: Dear XXXXX, Early 500 Euros 450 Euros 300 Euros 250 Euros Late 550 Euros 500 Euros 300 Euros 250 Euros We would like to invite you as Guest (Invited) Speaker on Economics and Business in one of our conferences www. wseas. org a) in Konya, Turkey, May 20-22, 2015 (a town with a great number of monuments of anatolian, ancient greek, hellenistic, roman, byzantine, seltzuk and ottoman civilization as well as modern monuments and museums -- google it) www. wseas. org 100 Euros per page 350 Euros per paper Figura 5: Gastos del congreso 6th Workshop on Soft Computing in Image Processing and Computer Vision (SCIPCV) British Journal of Economics, Management & Trade (ISSN: 2278-098X) is an OPEN peer reviewed INTERNATIONAL journal. We offer both Online publication as well as Hard copy options. Publication Charge is only 100 USD as per present offer. This journal is now publishing Volume 7. and /or b) in Salerno, Italy, June 27-29, 2015 www. wseas. org , a town with long history and important roman and italian monuments and natural beauties, 1 hour away from A ncient Pompei and Volcano of Vesuvius. We have initiated a Journal called Jacobs Journal of Physiotherapy & Exercise. We are planning to release the edition in the month of June, 2015. On this Occasion, we request you to submit your Research Work as manuscripts to our journal; we would request you to invite your colleagues, experts to submit their manuscripts. Authors are requested to pay 199 USD as publication charges for Inaugural edition. Figura 6: Revistas on-line que cobran por hacer visible los artículos. Destacar en este correo como se enfatiza el lugar de realización del evento, aportando algunos datos relevante respecto a la ciudad sede. Ello radica en que se da por sentado que la asistencia a un congreso esta muy condicionado por el lugar de celebración del mismo, lo cual es algo que generalmente es aceptado en el ambiente investigador, es decir, trabajo-ocio no son antagonistas. 3 Estadística de los correos La gran variedad de correos recibidos entre los 1032 de invitaciones a diferentes eventos científicos, publicaciones en revistas, congresos, jornadas, charlas inaugurales, ser editor asociado, productos relacionados con sus trabajos,.... se ha catalogado según aparece recogidos en la tabla 1. En esta tabla, se diferencian entre aquellas invitaciones a revistas, congresos y otros. 3.1 Revistas Figura 7: Invitación a dar una charla inaugural. Mencionar que en aquellas que se han registrados como no de pago hay un error en su cómputo no despreciable (debido a que su validación requeriría un excesivo coste en tiempo) ya que cuando una de ellas es interesante y se decide profundizar más, acudiendo directamente a la web de la revista, se encuentra que en algunas la información es fraudulenta y ciertamente hay que pagar en otras hay que hacer un donativo (sin el pago del mismo no hay posibilidad de publicar) y en otras piden una “suscripción“ por un tiempo con el objetivo de paliar los costes inherentes a la publicación. Por otro lado, dentro de la invitaciones a revistas no de acceso libre, 90 de 286, hay una proporción de casi 8 a 1, entre las revistas no indexadas en el Journal Citation Report (JCR) y las que si están. Además de las 11 invitaciones a revistas JCR 5 de ellas son de revistas de acceso libre con un coste por publicación. Por ejemplo la revista5 SENSORS, con un índice de impacto de 2.048 en el año 2015, la cual muestra en su web en la sección “Publication fee” lo que sigue: For Sensors (ISSN 1424-8220), authors are asked to pay a fee of 1800 CHF (Swiss Francs) per processed paper, but only if the article is accepted for publication in this journal after peer-review and possible revision of the manuscript. Note that many national and private research funding organizations and universities explicitly cover such fees for articles originated in funded research projects. Discounts are available for authors from institutes that participate with MDPI’s membership program. 3.2 En referencia a las revistas, lo más significativo es que de las 286 invitaciones a la participación, que representan un 27.71% del total de invitaciones, hay más invitaciones a revistas de acceso libre que aquellas que no lo son, 193 de unas frente a 90 de las otras. Además dentro de las primeras priman aquellas revistas que son de pago en más del doble que las otras (133 frente a 63). Congresos El número de invitaciones a congresos es con diferencia mayor que con el resto de invitaciones ya que representan 5 Sensors (ISSN 1424-8220; CODEN: SENSC9) is the leading international, peer-reviewed, open access journal on the science and technology of sensors and biosensors. Sensors is published monthly online by MDPI. 86 esta forma se intentan asegurar audiencia y el éxito del congreso. • Invitación a dar charla inagural o de clausura. Busca la misma finalidad del punto anterior y podriamos considerar como un reconocimiento más alto que el anterior. • Invitación a ser editor de un libro sobre una determinada temática. En este caso desde una editorial contactan contigo con la idea de animarte a la elaboración de un libro. Para ello, se te pide que busques a otros investigadores para completar el libro aunque en la mayoría de los casos a estos investigadores se les pide un “canon” por la publicación de su capítulo. El tema del pago vuelve a aparecer ya que son los propios autores los que sufragan el pago de la edición del libro. • Invitaciones a recibir cursos, seminarios, charlas,.... Tabla 1: Estadística de los correos recibidos. Journal Citation Report (JCR). (*1) son invitaciones a miembro de comité técnico (TPC), editor de libro, a dar charla,.. y (*2) a invitaciones a asistencia a escuelas de verano, cursos, ofrecimiento de proof-reader, a competiciones, ... Revistas Acceso libre No acceso libre Congresos Sin revistas Con revistas 27.71% Con pago Sin pago JCR No JCR 133 63 11 79 JCR No JCR 518 18 72 58.91% Otros 13.37% (*1) (*2) 102 36 1032 • .... 4 100.00% casi el 60% del total. El reclamo principal de los congresos es la posibilidad de llevar aparejado una publicación posterior en una revista y si esta es JCR mayor es su potencial, como se mostró en la sección anterior. Sin embargo, no suele ser fácil conseguir que una revista de impacto se involucre en una llamada a la publicación (call for paper) para un número especial de la misma, por diferentes motivos (proceso de selección, calidad de los trabajos involucración de6 TPC del congreso en los posteriores procesos de edición,...). En este estudio sólo son 18 invitaciones de un total de 608 invitaciones. Sin embargo, hay 518 invitaciones a congresos que no llevan ninguna revista detrás. De estas, lo más destacable es, como se comento en la sección anterior, que junto a la temática del congreso, lo que se destaca con mayor enfasis es el lugar de celebración, así con destinos europeos se centran en Lisboa, Londres, Paris, Roma, Isla Griegas, .... 3.3 Agradecimientos Este trabajo esta parcialmente financiado por el proyecto del Ministerio de Economía y competitividad, HERMES (TIN2013-46801-C4-1-r) y por el proyecto Simon (TIC8052) de la consejería de Economía, Innovación y ciencias de la Junta de Andalucía. Otros El resto de invitaciones hacen referencia a temas satélites a la investigación. El porcentaje de invitaciones de este tipo es del 13.37% del total, es decir, representan una parte significativa del total de correos. Las invitaciones de este tipo son muy dispares y variadas asi se tiene: • Oferta de proof-reader. En estas invitaciones te hacen ver la necesidad de un buen nivel técnico en el inglés escrito en los artículos y ofrecen su servicio para completar el envio de tus investigaciones a revistas y/o congresos de relevancias. • Invitación a formar parte del TPC. Después de unos breves halagos sobre tus méritos se te ofrece formar parte del equipo del programa de congreso y te animan a promocionar el evento y a participar con uno o varios artículos a ti y al resto del equipo al que pertenece. De 6 Conclusiones Del análisis de este investigador en referencia a los correos recibidos relacionados de una u otra forma con la investigación que desarrolla en su profesión, lo más significativo es el tiempo que dedica a ellos, el cual si se extrapola a todo un año supone 77 horas y 24 minutos, es decir, casi 10 días de 8 horas de trabajo. Cómite Técnico de Programa 87 XVII Jornadas de ARCA Author Index Agell, Núria . .......................................................................................................................................14 Álvarez-García, Juan Antonio . ....................................................................................53, 57, 63 Angulo, Cecilio . . .......................................................................................................................67, 75 Arcos García, Álvaro . .............................................................................................................53, 57 Arias Fisteus, Jesús. .................................................................................................................53, 63 Arias-Sánchez, Pedro . ............................................................................................................57, 63 Català Mallofré, Andreu . ...............................................................................................................22 Córcoba Magaña, Víctor . . ............................................................................................. 45, 53, 63 Datko, Patrick . ...................................................................................................................................18 Díaz Boladeras, Marta . ...................................................................................................................22 Eberlei, Andreas . ..............................................................................................................................18 Falomir, Zoe . ....................................................................................................................1, 6, 65, 73 Fernández Cerero, Damián . .........................................................................................................11 Fernández Montes, Alejandro . . .........................................................................................11, 65 Fernández Rodríguez, Jorge Yago . ........................................................................... 53, 57, 63 González Abril, Luis . . ................................................................................................ 6, 65, 73, 83 Herzberg, Manuel . ...........................................................................................................................18 Kaltenbach, Jonas. ............................................................................................................................18 Kothakota, Sai Kishor. ....................................................................................................................67 Ladra, Susana . ...................................................................................................................................63 Lázaro, Juan Pablo . ..........................................................................................................................26 Lealb, Yenny . ......................................................................................................................................83 Lillo Fantova, Lucía . ........................................................................................................................75 Luaces, Miguel. ..................................................................................................................................63 Martí, Isabel . ......................................................................................................................................26 Martínez Madrid, Natividad . . ............................................................................................. 33, 34 Martínez, Ángel. ................................................................................................................................26 XVII Jornadas de ARCA Muñoz Organero, Mario ................................................................................................ 45, 53, 63 Museros, Lledó.............................................................................................................................6, 73 Nguyen, Jennifer...............................................................................................................................14 Ortega Ramírez, Juan Antonio .............................................11, 32, 33, 34, 39, 53, 57, 63 Perugia, Giulia ...................................................................................................................................22 Ringgeler, Dominik .........................................................................................................................18 Riveiro, Belén ............................................................................................................................57, 63 Sánchez Fernández, Luis ..............................................................................................................53 Sánchez Hernández, Germán ......................................................................................................14 Sanz, Ismael................................................................................................................................... 6, 73 Scherz, Wilhelm D. .......................................................................................................... 18, 32, 39 Seepold, Ralf ...................................................................................................................... 18, 32, 39 Soilán, Mario ......................................................................................................................................57 Soria Morillo, Luis Miguel .................................................................................................... 32, 33 Thimm, Tatjana ................................................................................................................................18 Torres, Jesús ......................................................................................................................................53 Velasco, Manel...................................................................................................................................75 Yay, Emre .................................................................................................................................... 33, 34